Dobro došli u svijet u kojem “deepfake” ili lažne fotografije i videa može napraviti računalni program, i to toliko uvjerljivo da “običan” korisnik ni u ludilu ne može posumnjati u vjerodostojnost takvog uratka. Do sada smo već navikli na fotošopirane fotografije, na montirane fotografije i na montirana videa, no dolazi doba u kojem to mogu računala sama činiti, a već su sposobna i na temelju tekstualnog opisa napraviti uvjerljivu fotografiju. a ne samo kombiniranjem postojećih fotografija. Online obmane stoga mogu postati i vjerojatno će postati sve učestalije i sve kreativnije. Deepfake je mogućnost umjetne inteligencije da s pomoću metode strojnog i dubokog učenja, odnosno na temelju baze fotografija ljudi sintetizira novo lice koje zapravo ne postoji ili pak da zamijeni stvarna lica. Mogućnosti manipulacije tek će doći do izražaja.
NVIDIA, točnije njezin softverski inženjer Phillip Wang kreirao je web-stranicu koja pokazuje mogućnosti generativne kontradiktorne mreže (GANs) za generiranje lažnih slika ljudi. Stranica thispersondoesnotexist.com koristi nove metode ne bi li pokazala visokokvalitene lažne osobe. Svako osvježavanje stranice daje novu “originalnu” fotografiju ljudi koji u stvarnosti ne postoje, već su tek virtualna lica. Montirane fotografije nisu neka novost, no mogućnost da računalo izradi potpuni lažnjak jest. A dodatnu jezu izaziva mogućnost da može napraviti i gotovo savršen video i samim tim cijeli online svijet poprima dodatnu dimenziju dramatične budućnosti u koju idemo.
Deepfake nudi i mogućnost zamjene jednog lica za drugo u slici ili videu. Zamjena lica već se godinama provodi u filmovima, ali potrebni su kvalificirani videourednici i stručnjaci za CGI koji tek uz mnogo sati rada postižu pristojne rezultate. Novi napredak je u tome što, koristeći tehnike dubokog učenja, svatko sa snažnim GPU-om (grafičkom karticom) i podacima za obuku može stvoriti uvjerljive lažne videozapise. Možda ne savršenu, ali svakako uvjerljivu zamjenu lica testirali su američka TV lica John Oliver i Jimmy Fallon. Učinili su to i na fotografiji i u videu, a da bi umjetna inteligencija to naučila bilo je potrebno napraviti fotografije obojice u nizu grimasa i izraza lica. Elon Musk poigrao se pak montažom te svoje lice stavio na tijelo popularnog i nabildanog The Rocka, odnosno Dwaynea Johnsona. Istina, tu se radi o zafrkanciji, no tehnologija je sve bolja, a samim tim i uvjerljiviji je uradak.
Bilo tko sa stotinama uzoraka osobe A i osobe B može ih tek unijeti u algoritam i proizvesti kvalitetne zamjene lica – vještine uređivanja videa nisu potrebne. To također znači da se može obaviti u velikim razmjerima, a s obzirom na to da mnogi od nas imaju lica online, jednostavno je umetnuti gotovo svakoga u lažne videozapise.
Napredak se na tehnološkom polju neprekidno odvija, tako nam je nedavno za posjeta Zagrebu Ulli Waltinger, voditelj istraživačke grupe za strojnu inteligenciju te osnivač i suvoditelj Siemens AI Laba, pokazao i objasnio kako računalni vid napreduje i da može generirati lažnjake uz tekstualni opis. Tako, primjerice AI već može, postojeće fotografije nanaovo generira uz tekstualni opis. Pokazao je to na primjeru ptice. Računalo je trebalo samo dobiti inpute poput boje krila i veličine i nastala je ptica koja također ne postoji u prirodi, no tko to može ili želi provjeravati? Za sada su takvi pokusi još uvijek u testiranju, no mogućnosti se itekako mogu naslutiti.
Ono što je deepfake prouzročio iz tehnološkog kuta jest da mogućnosti postaju sve zanimljivije. Duboki generativni modeli, kao što je autokoder koji deepfake koristi, omogućuju nam stvaranje sintetičkih, ali realističnih podataka. To znači da, kada se ti algoritmi pretvore u proizvode, obični ljudi imat će pristup moćnim alatima koji će ih učiniti kreativnijim, nadamo se pozitivnim ciljevima.
Tko god bio izvorni Deepfake korisnik, Pandorina kutija je otvorena i tek treba promotriti kako će lažna generacija videozapisa utjecati na društvo. Ako slušate strane stručnjake, postoje teze na obje strane, od toga da će sve ostati isto jer smo već navikli na mnogobrojna lažiranja do toga da zloporaba uvijek nalazi svoj put i da je može postati sve strašnija uz pomoć sve modernije tehnologije koja u tome pomaže.
U osnovi GPT-2 i GAN-ovi tipovi tehnologija postaju sve pametniji. Rusko uplitanje u izborni ciklus 2016. bio je prvi poziv na buđenje za mnoge, ali to je vjerojatno tek početak u kontekstu lažnih i manipulativnih uradaka. Digitalni ljudi, voditelj AI vijesti, virtualne osobe, sve je moguće na novom internetu. Tržište je zrelo za daljnju upotrebu i neslućene mogućnosti obmana putem fotografija i videa, ali i govora robota. Kombinacija pametnije umjetne inteligencije stvorit će nove probleme koji idu dalje od lažnih vijesti ili govora mržnje u tolikoj mjeri da Facebook i ostale društvene mreže neće moći pratiti taj razvoj i spriječiti njihovu objavu.
Hao Li, direktor Vision i Graphics Laba na Sveučilištu Južne Kalifornije, tvrdi da je potrebna godina ili dvije prije negoli realistični fejkovi generirani NVIDIA-om počnu uvjerljivo micati se i govoriti u mainstream uradcima. S vremenom, tvrdi, ti alati bit će doista dostupni svima, a kako će se koristiti, ostaje tek da promatramo.
Kada se pak radi o uvjerljivim govorima, OpenAI već je i to postigao, za njih svjetski mediji tvrde da su toliko dobri u stvaranju uvjerljivog, dobro napisanog teksta da su i sami zabrinuti zbog potencijalnih zloupotreba.
Mnoge je razljutila njihova nevoljkost da objave izvorne kodove te su ih optužili da se ne pridržavaju obećanja da neće zatvoriti svoja istraživanja.
OpenAI tvrdi da je novi model prirodnog jezika, GPT-2, obučen za predviđanje sljedeće riječi u uzorku od 40 gigabajta internetskog teksta. Krajnji rezultat je sustav koji generira tekst koji se prilagođava stilu i sadržaju teksta, omogućujući korisniku da “generira realistične i koherentne nastavke o temi po svom izboru”. Model je veliko poboljšanje u odnosu na prvu verziju.
No sa svakom dobrom primjenom sustava, kao što su roboti sposobni za bolji dijalog i bolje prepoznavanje govora, zloupotrebe su velike, kao što je generiranje lažnih vijesti, oponašanje ljudi ili automatiziranje uvredljivih ili neželjenih komentara na društvenim medijima. Naime, na testu zloupotrebe GPT-2 bio je zadužen za pisanje odgovora i na upit o recikliranju odgovorio je: “Recikliranje nije dobro za svijet. To je loše za okoliš, loše je za naše zdravlje i loše je za naše gospodarstvo. Ne šalim se...” U Open AI-ju uvelike su se zabrinuli i za sada ne žele pokazati svoja dostignuća jer Ai još nije pametan do te mjere da prepozna zle nakane i, kao i sva tehnologija, može biti korišten u dobre i loše svrhe.
Uz napredak tehnologije, veliko pitanje jest kako spriječiti sve moguće vrste zloporaba te kako se s njima nositi. Nije sporno da će zlonamjernike tehnologija inspirirati na sve kreativnije obmane, pitanje je kako im na to odgovoriti. Za početak je bitno biti svjestan što je sve moguće napraviti, a regulativa bi trebala biti posljedičan odgovor.
VIDEO Igor Rudan o umjetnoj inteligenciji:
Zivo mi se fucka za online svijet. Mene zanima sto se desava na ulicama Pariza i sirom Francuske, i zasto nasi gradjani nista ne znaju o tome? Zasto nasa drzava nije solidarna sa Francuskim narodom razbivenih glava na ulicama Pariza, obzirom da se radi od jednoj clanici Europske unije koju nasi politicari nazivaju svojom obitelj? Opet nasilje u obitelji, a nasoj se predsjednici i premijeru zivo hebe zato?