Umjetna je inteligencija poražena u bitki za Notre-Dame de Paris. Barem ona koju je upogonio moćni YouTube kako bi suzbio rastuću poplavu lažnih vijesti kojima se nastoji diskreditirati mahom ključne događaje iz ljudske povijesti poput spuštanja na Mjesec.
Ali i one suvremene poput ubojstava u Novom Zelandu ili drugdje. Sredinom prošle godine YouTube uveo je sustav koji će kao izvor informacija za takve teme koristiti provjerene izvore poput Encyclopedije Britannice ili Wikipedije kako bi smanjio mogućnost da se događaje poput spomenutih krivo atribuira.
Katedrala Notre Dame u plamenu
No, u slučaju požara u Parizu koji je teško oštetio jednu od najpoznatijih svjetskih znamenitosti, dogodilo se upravo to – pogrešno kontekstualiziranje prizora vatre koja je gutala Notre-Dame. Ispod videa koji su prikazivali tragediju pojavile su se informacije o rušenju newyorških Blizanaca umjesto informacija o bogatoj i slavnoj povijesti jedne od najpoznatijih svjetskih crkava.
Jasno, vijest je ostala u sjeni događaja koji ju je i generirao, no nije ostala nezamijećenom, odnosno dobro je došla protivnicima primjene umjetne inteligencije. Jer, ona je ovom prilikom ozbiljno zakazala dajući štofa onima koji čak i u strogo tehnološkim stvarima ipak daju prednost čovjeku prije stroja, odnosno računala ili u ovom slučaju algoritma.
Kriv kognitivni bias
Sustav koji je trebao spriječiti lažne vijesti, u slučaju Notre-Dame ga je – proizveo. Iako su se mnoge tehnološke kompanije ipak odlučile na angažiranje tisuća moderatora kako bi se efikasnije borile protiv dezinformacija i sličnih štetnih pojava, vodeći u Silicijskoj dolini ostaju pri tvrdnji da je primjena računala efikasnija i brža.
– Duboko smo ožalošćeni požarom koji se dogodio u katedrali Notre-Dame. Prošle smo godine predstavili informacijske panele s poveznicama na vanjske izvore poput Encyclopedije Britannice i Wikipedije za one teme koje su često predmet dezinformiranja. Ti se paneli aktiviraju algoritmom, no naši sustavi ponekad pogrešno odluče.
Onemogućili smo te panele za prijenose povezane s požarom, službena je izjava YouTubea koji je objavio kako će u sljedećih nekoliko godina u takve sustave uložiti još 25 milijuna dolara.
Za mišljenje o pogrešci koja se dogodila u sustavu kakav je YouTubeu pitali smo našeg stručnjaka za robotiku i umjetnu inteligenciju prof.dr. sc. Bojana Jerbića s Fakulteta strojarstva i brodogradnje u Zagrebu.
– Ne radi se o tako jednostavnoj stvari kako se to možda u prvi tren čini. YouTube uveo je sustav kako bi smanjio broj lažnih vijesti na svojoj platformi. Taj sustav koristi kognitivni bias, a riječ je o sustavnoj pogrešci u tumačenju dobivenih ili prikupljenih podataka koji utječu na naše mišljenje. Ili, u ovom slučaju, ponašanje YouTubeova algoritma, kaže dr. Jerbić pojašnjavajući da smo nečemu takvom izloženi pri svakodnevnom korištenju, primjerice, društvenih mreža.
Facebook je odličan primjer za tu vrstu pogreške. Nisu svi na toj društvenoj mreži, pa ako kao relevantno uzmemo mišljenje samo onih koji jesu na Facebooku, očito je da ćemo izvući pogrešne zaključke, kaže profesor Bojan Jerbić
– Facebook je za to odličan primjer. Nisu svi na toj društvenoj mreži, pa ako kao relevantno uzmemo mišljenje samo onih koji su na Facebooku očito je da ćemo izvući pogrešne zaključke, kaže naš stručnjak. Zanimalo nas je može li se takvo što učiniti i (zlo)namjerno.
Ako je u pitanju kakav virus, tada je moguće da ga netko programira tako da on u sustav unosi ogromnu količinu podataka koji će utjecati na taj kognitivni bias, odnosno pristranost i tako natjerati sustav, dakle njegovu umjetnu inteligenciju da donese krivi zaključak što bi moglo rezultirati objavom pogrešnih vijesti ili barem onih izvan konteksta događaja. Ne bi bilo prvi put da se takvo što dogodi pa se ni u ovom slučaju to ne može isključiti – objašnjava prof. Jerbić.
Nije namjerno
Naš poznati stručnjak za računalnu sigurnost Marko Rakar također ima objašnjenje.
– Sve je pitanje strojnog učenja. Algoritam radi ono za što ga se uvježba. Apsolutno ne vjerujem da je situacija izazvana namjerno. Taj je YouTubeov algoritam uvježbavan na brdu takvih uzoraka, a kako su primjeri u sebi imali ugrađenu pristranost, dakle bias, on je prepoznao ono za što je bio uvježbavan, misli Rakar naglašavajući da je kognitivna pristranost doista veliki problem kod algoritama. – Tako se doista nije moglo raditi o nečemu namjernom.
YouTube radi na prevelikom uzorku i s previše kontrole kvalitete da bi takvo što bilo vjerojatno. Način da se to riješi jest primjena objektivnog seta podataka za uvježbavanje tog algoritma – konkretan je Rakar, dodajući da je videomaterijal povezan s požarom u Parizu često potjecao s provjerenih izvora vijesti, no YouTubeov algoritam ipak nije uočio razliku. I tada je atribucija bila kriva.
Čitajte između redaka... Ovo trkeljanje je u svrhu dodatne cenzure interneta pod izgovorom sprečavanja fake newsa i sličnog. MAINSTREAM MEDIJI su dezinformatori javnosti kako bi kreirali lažnu sliku svijeta po željama i potrebama politike i svjetskih moćnika, društvene mreže i portali šire pak ISTINE, nepatvorene, neuvijene i to im smeta pošto je obmana javnosti jedini način opstanka ovog svjetskog psiho-patološkog sustava.