Eksperiment

Evo zašto Facebookovi roboti ne mogu doista zavladati svijetom

Facebook
Foto: Reuters/PIXSELL
08.08.2017.
u 16:30

Umjesto zastrašujuće priče, Facebookov eksperiment demonstrirao je ograničenja koja postoje u razvoju umjetne inteligencije, u ovom slučaju botova

Facebook je u panici ugasio projekt jer su dvije umjetne inteligencije, točnije chat botovi, osmislili svoj vlastiti jezik. Tako su glasili napisi u medijima protekli tjedan. U njima je isticano da je Facebook u svom nastojanju da osmisli što pametnije i savršenije chat botove (programe koji razgovaraju s korisnicima) neočekivano stvorio botove koji su sami smislili svoj jezik. Kada se to dogodilo, stručnjaci Facebooka iznenada su prekinuli eksperiment. Tako su izvještavali neki senzacionalistički mediji poput, primjerice, britanskog The Suna. Priča je sugerirala da je vrijeme SkyNeta i Terminatora već počelo te da su strojevi zastrašujući jer mogu međusobno razgovarati svojim jezikom te će uskoro i zavladati. Prekid istraživanja i gašenje botova, sugerirali su, bila je panična reakcija istraživača Facebooka koji zapravo nisu mogli ovladati strojevima i vlastitim programima umjetne inteligencije drukčije osim, krajnjom mjerom, prekidom svih njihovih funkcija.

Zastrašujući roboti

Pritom su se zakotrljali i nastavci tekstova o umjetnoj inteligenciji kao opasnosti koja prijeti ljudskom rodu. Valja naglasiti i da su tekstovi o strašnim robotima koji komuniciraju a da ih ljudi ne razumiju, zapravo uslijedili nakon razmirice tehnoveličina Elona Muska i Marka Zuckerberga. Jer, nisu se složili oko budućnosti umjetne inteligencije, oko njezinih dobrih i loših strana. A Facebookovi botovi izvučeni su naprasno i, naravno, plasirani na “tamnu” stranu.

No, ipak, nakon prvih uznemirujućih naslova i alarmantnih nastavaka, društvene mreže odradile su svoje, neki znanstvenici koji su radili i rade na projektima osposobljavanja botova i njihovu razvoju i napretku oglasili su se na Twitteru pobijaći napise i kritizirajući medije, a pojavili su se i tekstovi u kojima su objasnili što se dogodilo i izvor informacija odakle je sve i generirano.

Kako su komunicirali botovi

Bob: i can i i everything else . . . .

Alice: balls have zero to me to me to me to me to me to me to me to me to

Bob: you i everything else . . . . . .

Alice: balls have a ball to me to me to me to me to me to me Bob: i i can i i i everything else . . Alice: balls have a ball to me to     

Za početak, u priči o botovima radi se o Facebookovu izvješću iz lipnja, dokumentu koji izvještava što je bio zadatak istraživanja i koji su rezultati. Dakle, prema pisanju Wireda i CNBC-a, Facebookovi znanstvenici pokušali su naučiti botove da što uvjerljivije pregovaraju u slučajevima kupnje i prodaje. Učili su ih da pregovaraju, što je bio novi iskorak u istraživanju budući da Facebook puno nade polaže u chat botove. Dva Facebookova bota trebala su obaviti jednostavan zadatak – pregovarati i surađivati te uvježbati radnje kako bi što bolje mogli jednom služiti u interakciji s ljudima koji kupuju ili prodaju stvari preko Facebooka. Nisu baš bili uspješni, botovi su zapravo promašili svoju zadaću. Ono što su uspjeli jest da botovi koriste obrasce govora u kojem ima niz ponavljanja i kraćenja riječi, usto su i lagali, točnije, glumili da su zainteresirani za objekt ne bi li kasnije postigli dogovor. Kako su im nadalje pokušavali zadati nove parametre i “opametiti” ih, u jednom trenu prestali su komunicirati razumljivim jezikom. Međusobni je dijalog bio uspostavljen, ali je ljudima bio nerazumljiv.

A sam razgovor okarakteriziran je kao neintuitivan. Tako su, izvijestio je CNBC, napisali znanstvenici Mike Lewis, Denis Yarats, Yann Dauphin, Devi Parikh i Dhruv Batra iz Facebook’s Artificial Intelligence Research Group u izvješću koje je objavljeno još u lipnju. Poanta izvješća uopće nije bila obavijestiti da botovi međusobno komuniciraju, jer za njh to nije vijest. Naime, kako je Batra kasnije objasnio, upravo takav pododjel umjetne inteligencije već postoji godinama i ovo nisu prvi botovi koji su to ostvarili.

Terminator je još daleko

Njihov je cilj bio da u datom okruženju riješe zadatak, nisu to učinili, a znanstvenici su tada zaključili da napori oko cijele priče ili daljnje inzistiranje na istim postavkama programa neće donijeti rezultat te su odustali od daljnjeg usavršavanja, barem zasad.

Svaki put kad znanstvenici prekinu neki posao na kojem su radili ili promijene programe na kojima su radili jer ih ne dovode do rezultata ili smjera u kojem žele ići, to bi se moglo nazvati gašenjem ili prekidom i tako uzbunjivati javnost, što je, smatra Batra, potpuno krivo, neučinkovito i ne služi znanosti. U ovom slučaju zadatak je bio da botovi uspješno pregovaraju. No, nisu to uspjeli, barem ne uz dane im postavke. SkyNet je daleko, Terminatora još nema. Zapravo, piše Wired, umjesto zastrašujuće priče, Facebookov eksperiment demnostrirao je ograničenja koja postoje u razvoju umjetne inteligencije. Posebno u ovom slučaju chat botova, koji mogu obavljati impresivne radnje, no samo unutar strogo definiranog okruženja. Nisu još ni blizu autonomnosti i zdravom razumu koje bi se moglo usporediti s ljudskim razumijevanjem i vještinama, smatraju. Botovi i asistenti poput Appleove Siri ili Amazonove Alexe korisni su i zabavni, ali ne mogu još razgovarati logički i u varijanti smislenog dijaloga.     

Komentara 1

Avatar Azriel
Azriel
18:06 08.08.2017.

A koje bi objašnjenje dali ovi znanstvenici na kineske chatbootove, koji su ničim izazvano počeli pljuvati kinesku partiju?

Važna obavijest
Sukladno članku 94. Zakona o elektroničkim medijima, komentiranje članaka na web portalu i mobilnim aplikacijama Vecernji.hr dopušteno je samo registriranim korisnicima. Svaki korisnik koji želi komentirati članke obvezan je prethodno se upoznati s Pravilima komentiranja na web portalu i mobilnim aplikacijama Vecernji.hr te sa zabranama propisanim stavkom 2. članka 94. Zakona.

Za komentiranje je potrebna prijava/registracija. Ako nemate korisnički račun, izaberite jedan od dva ponuđena načina i registrirajte se u par brzih koraka.

Želite prijaviti greške?

Još iz kategorije