A sakk és a póker után a StarCraftban is mesterszintre lépett a mesterséges intelligencia
A Google által öt éve felvásárolt mesterséges intelligenciával (AI) foglalkozó műhely, a DeepMind szerdán bejelentette, hogy új mérföldkőhöz érkezett: az AlphaStar nevű AI-szoftver elérte a legmagasabb, grandmaster fokozatot a StarCraft II valós idejű stratégiai játékban. Ez azt jelenti, hogy az AI már az emberi játékosok 99,8 százalékát képes legyőzni ebben a kifejezetten összetettnek számító multiplayerben.
Mindezt kiegyenlített küzdelemben hajtották végre az algoritmusok: az AlphaStar csak annyit látott a játék térképéből, amennyit az emberek, és az öt másodpercenkénti akciók számát is az átlagos emberi szinthez igazították. A sakkozni magától megtanuló AlphaZeróhoz hasonlóan a starcraftos szoftver is az úgynevezett megerősítéses tanulás módszerével sajátította el a játékot mesteri szinten – ezt a technikát a jövőben a robotok, önvezető autók és különböző képalkotási és felismerési rendszereknél szeretné hasznosítani az AI-ipar.
A nagy lépések után ez egy sokkal nagyobb lépés
„A mesterséges intelligencia fejlődésének történetét különböző játékbeli mérföldkövek alakítják. Mióta a gépek megtanultak gózni, sakkozni és pókerezni, a konszenzus szerint a StarCraft lett a következő nagy kihívás. A videojáték sokkal összetettebb a sakknál, mivel a játékosok több száz egységet irányítanak; összetettebb a gónál, mert 1026 lehetséges lépés van minden helyzetben; és a játékosoknak kevesebb információjuk van az ellenfelekről, mint a pókerben” – hangsúlyozta az eredmény fontosságát David Silver, a DeepMind AlphaStar csapatának vezető kutatója.
A DeepMind januárban jelentette be, hogy az AlphaStar tíz profi játékost győzött le egymás után, de aztán az élőben közvetített döntő játszmát elveszítette a MaNa nevű játékos ellen. A cég ezután intenzív fejlesztésbe fogott, és a kutatók júniusig finomhangolták a rendszert, majd kihívták a legprofibb játékosokat, akik ellen júliusban és augusztusban mérkőzött meg a mesterséges intelligencia. Ebben az időszakban vált nagymesterré az AlphaStar, de még így is akadt 0,2 százaléknyi ember, akit nem tudott legyőzni – persze ez már csak idő kérdése.
„Az AlphaStar egy érdekes, unortodox játékos, amely a profi játékosok reflexeivel és gyorsaságával rendelkezik, de teljesen saját stratégiája és stílusa van. Mivel az AlphaStar ágensei egymás elleni játszmákban edzőtek, a rendszer egy elképzelhetetlenül furcsa játékstílust alakított ki, ami elgondolkodtatja az embert, hogy a profi játékosok mennyire nem tudták kiaknázni a StarCraftban rejlő lehetőségeket” – mondta a Kelazhur nevű játékos, aki a Panda Global csapatában állt ki a mesterséges intelligencia ellen.
Tíz éve elképzelhetetlen volt, de még egy éve is kérdéses
„Egy álom vált valóra. Az AlphaStar kizárólag neurális hálózattal és általános célú tanulási algoritmusokkal érte el a Grandmaster szintet, ami elképzelhetetlen volt tíz éve, amikor elkezdtem tanulmányozni a StarCraft mesterséges intelligenciáját, szabályzatalapú rendszerekkel” – mondta el a Nature-ben megjelent tanulmány egyik szerzője, az egykori StarCraft-játékosból DeepMind-alkalmazottá lett Oriol Vinyals.
Ez a mérföldkő valamelyest egybevág az Elon Musk által alapított OpenAI eredményeivel, amiket a cég mesterséges intelligenciája a Dota 2 című játékban ért el. Az OpenAI Five nevű szoftver áprilisban győzte le a milliók által játszott, 5 az 5 elleni csatajáték világbajnok csapatát, egy évvel azután, hogy két kevésbé erős csapattól még szoros versenyben kikapott.
Az embereket saját erőből, gépi tanulás után legyőző mesterséges intelligenciák sorában a DeepMind AlphaGo nevű szoftvere volt az első, amely komoly áttörést ért el: a stratégiai lehetőségekben meglehetősen gazdag ősi kínai játékkal, a góval megismertetett algoritmusok 2015 októberében először vert meg profi játékost előnykő nélkül. A Google cége három évvel később egy olyan AI-szoftvert mutatott be, amely már nem csak egy játékot képes elsajátítani: az AlphaGo a megerősítéses tanulás módszerével, a nulláról tanult meg sakkozni mindössze 9 óra alatt, majd szépen sorban legyőzte három játék (sakk, go, sógi) gépi világbajnokát.
A DeepMind és az OpenAI mellett aztán a Facebook is felvette a kesztyűt, és 2019 júliusában Mark Zuckerberg cége is történelmet írt: az AI-kutatócsoport egy olyan pókeralgoritmust fejlesztett ki, amely először győzte le az összes embert egy hatszemélyes Texas Hold'Em asztalnál. Azelőtt csak kétszemélyes játszmában tudott győzni pókeres AI, de az emberi segítség nélkül edződött Pluribus nevű algoritmuson már több korábbi világbajnok sem talált fogást.
Kapcsolódó cikkek a Qubiten: