starcraft

 イギリスの人工知能研究所DeepMindは2019年1月24日、YouTube Liveにて人工知能「AlphaStar」のデモンストレーションを公開。『StarCraft II』において、「AlphaStar」がTeam Liquidの「Mana」選手を5対0で完封する様子を見ることができます。

DeepMind StarCraft II Demonstration


 このDeepMindの偉業は、コンピューターがゲームで人間を倒した歴史の中でも最も複雑なものです。チェッカーは1994年、チェスは1997年、DeepMindの初期のボットである「AlphaGo」は2016年に囲碁チャンピオンを破りました。

 囲碁の専門家は少なくとも10年先のことだと考えていたため、2016年のAlphaGoの勝利は驚くべきものでした。それを鑑みれば、「AlphaStar」の勝利は予定通りと言えるでしょう。機械学習は十分なデータと計算能力を備えているため、特定の問題を克服できることは明らかです。

 『StarCraft』のようなビデオゲームは、チェスや囲碁より数学的に複雑です。 囲碁盤上の選択肢は10の170乗程度であるのに対し、『StarCraft』では少なくとも10の270乗の選択肢があると推定できます。その上で、『StarCraft』で軍事ユニットを構築および制御するには、プレイヤーは多くのアクションから選択して実行する必要があります。

 DeepMindは、Googleが機械学習をさらに強力にするために発明した強力なTPUチップの助けを借りることで、これらの困難を克服しました。AlphaStarは『StarCraft』のプレイヤー同士のゲーム50万試合を学習し、仮想リーグでそれ自体の改良版を連続してプレイしました。そのリーグから生み出されたボットは、約200年分のゲームプレイに相当する経験を蓄積しています。

 AlphaStarは、プロゲーマーよりも反応時間が遅いものの、コンピューターのマウスを振るう人間よりもユニットを操縦および照準する際の精度が高くなることも特徴です。

 これは、人工知能の1つのゴールである「汎用型人工知能」に一歩近づいたのでしょうか。最後に行われたエキシビションマッチ(動画時間: 2:01:40くらいから)では5-0でManaを下した「AlphaStar」とほぼ同じバージョンであるのにも関わらず、Manaが勝利を収めました。OpenAIのタン氏は「このような臨機応変さは、今の機械学習システムには備わっていません」と結んでいます。


Nunuこっとんの一言
実は「通信ログを解析して最適行動は導いてましたーwww」とかでもバレなそう