https://frosthead.com

Viimane AI õpetab ennast mängima ilma inimese abita

Eelmisel aastal peksis Google'i DeepMindi meeskonna loodud tehisintellekti programm nimega AlphaGo inimese iidse hiina strateegiamängu Go olümpiavõitjat, mis on paljuski keerulisem kui male. Nagu Emily Matchar omal ajal Smithsonian.com-ile teatas, oli see vapustav saavutus, sest juba 1997. aastal ennustasid mõned inimesed, et arvuti Go peksmiseks kulub 100 aastat.

Ehkki feat on muljetavaldav, õppis AlphaGo seda mängu mängima, analüüsides inimeste varasemaid mänge. Kuid nagu Merrit Kennedy NPR-i teatel on, on tehisintellekti uus versioon nimega AlphaGo Zero välja mõelnud, kuidas mängu iseseisvalt juhtida ilma inimesepoolse panuse ja manipuleerimiseta - edasiminek, millel on AI edaspidiseks arenguks suur mõju.

DeepMindi pressiteate kohaselt õppisid AlphaGo eelmised versioonid mängu mängima, uurides professionaalsete ja tugevate amatöörmängijate vahelisi matše, neelavad mängureegleid ja edukaid mängustrateegiaid. AlphaGo Zero aga ei vaadanud ühtegi mängu, mida inimesed mängisid. Selle asemel anti talle mängureeglid ja seejärel mängiti iseenda vastu, kasutades tugevdusõpet, et õpetada endale õigeid ja valesid käike ning pikaajalisi strateegiaid. Kui AI mängis mängu, värskendas see oma arenenud närvivõrku, et paremini ennustada vastase käike.

Teadlased jälgisid, kuidas AI õppis mängu reaalajas. Kolme päeva pärast suutis see lüüa varasema AlphaGo Lee nime kandva versiooni, mis edestas 2016. aastal 5-st mängust Korea Go-meistrit Lee Sedolit. Pärast 21 päeva alistas see AlphaGo Masteri - versiooni, mis edestas 60 võrgus olevat GO-mängijat võrgus ja maailma parim mängija Ke Jie selle aasta alguses. Viimane versioon andis AlphaGo Master 100 mängudele nulli. 40 päeva pärast jõudis see mängu tasemeni, mida keegi pole varem näinud. Uurimistööd ilmuvad ajakirjas Nature.

„Lühikese aja jooksul on AlphaGo Zero mõistnud kõiki Go-teadmisi, mille inimesed on tuhandete mängude aastate jooksul kogunud, “ ütleb Google'i DeepMindi juhtivteadur David Silver Youtube'i videol. "Mõnikord on tegelikult otsustatud minna sellest kaugemale ja avastada midagi, mida inimesed polnud selle aja jooksul isegi avastanud, ning avastanud uusi teadmisi, mis on mitmes mõttes loovad ja uudsed."

Nagu Agence France-Presse teatas, jõudis AlphaGo Zero selle meisterlikkuse tasemele palju tõhusamalt kui tema eelkäijad. Kui eelmises iteratsioonis oli 48 andmetöötlusüksust ja see mängis mitme kuu jooksul 30 miljonit treeningmängu, siis Zerol oli vaid 4 töötlemisüksust ja ta mängis kolme päeva jooksul 4, 9 miljonit treeningmängu. "Inimesed kipuvad eeldama, et masinõpe on seotud suurandmete ja suure hulga arvutamisega, kuid tegelikult nägime AlphaGo Zero abil algoritmidel palju rohkem, " räägib Silver AFP-le.

Kuid uurimistöö on midagi enamat kui lihtsalt lauamängu valdamine. Nagu ajaleht The Guardian teatas Ian Sample, võib seda tüüpi tabula rasa ehk tühi kiltkivi abil õppimine viia uue põlvkonna üldotstarbelise tehisintellekti juurde, mis võiks aidata lahendada probleeme valdkondades, mida saab arvutis hästi simuleerida, näiteks narkootikumide koostis, valkude voltimine või osakeste füüsika. Ehitades oma teadmised maast üles ilma inimeste eelarvamuste ja piiranguteta, võiksid algoritmid minna suundadesse, mida inimesed pole veel mõelnud otsida.

Ehkki paljud AI kogukonna inimesed näevad AlphaGo Zerot suure saavutusena, ütleb tehisintellektile spetsialiseerunud New Yorgi ülikooli psühholoogiaprofessor Gary Marcus NPR-i Kennedyle, et ta ei arva, et algoritm on tõesti tabula rasa, kuna eelnevad inimteadmised läksid algoritmi konstrueerimisel. Samuti ei arva ta, et tabula rasa AI on nii oluline, kui tundub. "Bioloogias ei ole inimese tegelikud ajud tabula rasa ... Ma ei näe peamist teoreetilist põhjust, miks peaksite seda tegema, miks peaksite loobuma paljudest teadmistest, mis meil maailmas olemas on, " ütleb ta.

Isegi nii on Alpha Go mängu kiire meisterlikkus muljetavaldav ja natuke hirmutav.

Viimane AI õpetab ennast mängima ilma inimese abita