Deepfake

Opasnosti lažnog svijeta: ovi ljudi zapravo ne postoje

Lažna lica
Foto: Nvidia
30.03.2019.
u 14:40

Montirane fotografije nisu neka novost, no mogućnost da računalo izradi potpuni lažnjak jest. A dodatnu jezu izaziva mogućnost da može napraviti i gotovo savršen video i samim tim cijeli online svijet poprima dodatnu dimenziju dramatične budućnosti u koju idemo

Dobro došli u svijet u kojem “deepfake” ili lažne fotografije i videa može napraviti računalni program, i to toliko uvjerljivo da “običan” korisnik ni u ludilu ne može posumnjati u vjerodostojnost takvog uratka. Do sada smo već navikli na fotošopirane fotografije, na montirane fotografije i na montirana videa, no dolazi doba u kojem to mogu računala sama činiti, a već su sposobna i na temelju tekstualnog opisa napraviti uvjerljivu fotografiju. a ne samo kombiniranjem postojećih fotografija. Online obmane stoga mogu postati i vjerojatno će postati sve učestalije i sve kreativnije. Deepfake je mogućnost umjetne inteligencije da s pomoću metode strojnog i dubokog učenja, odnosno na temelju baze fotografija ljudi sintetizira novo lice koje zapravo ne postoji ili pak da zamijeni stvarna lica. Mogućnosti manipulacije tek će doći do izražaja.

NVIDIA, točnije njezin softverski inženjer Phillip Wang kreirao je web-stranicu koja pokazuje mogućnosti generativne kontradiktorne mreže (GANs) za generiranje lažnih slika ljudi. Stranica thispersondoesnotexist.com koristi nove metode ne bi li pokazala visokokvalitene lažne osobe. Svako osvježavanje stranice daje novu “originalnu” fotografiju ljudi koji u stvarnosti ne postoje, već su tek virtualna lica. Montirane fotografije nisu neka novost, no mogućnost da računalo izradi potpuni lažnjak jest. A dodatnu jezu izaziva mogućnost da može napraviti i gotovo savršen video i samim tim cijeli online svijet poprima dodatnu dimenziju dramatične budućnosti u koju idemo.

Deepfake nudi i mogućnost zamjene jednog lica za drugo u slici ili videu. Zamjena lica već se godinama provodi u filmovima, ali potrebni su kvalificirani videourednici i stručnjaci za CGI koji tek uz mnogo sati rada postižu pristojne rezultate. Novi napredak je u tome što, koristeći tehnike dubokog učenja, svatko sa snažnim GPU-om (grafičkom karticom) i podacima za obuku može stvoriti uvjerljive lažne videozapise. Možda ne savršenu, ali svakako uvjerljivu zamjenu lica testirali su američka TV lica John Oliver i Jimmy Fallon. Učinili su to i na fotografiji i u videu, a da bi umjetna inteligencija to naučila bilo je potrebno napraviti fotografije obojice u nizu grimasa i izraza lica. Elon Musk poigrao se pak montažom te svoje lice stavio na tijelo popularnog i nabildanog The Rocka, odnosno Dwaynea Johnsona. Istina, tu se radi o zafrkanciji, no tehnologija je sve bolja, a samim tim i uvjerljiviji je uradak.

Bilo tko sa stotinama uzoraka osobe A i osobe B može ih tek unijeti u algoritam i proizvesti kvalitetne zamjene lica – vještine uređivanja videa nisu potrebne. To također znači da se može obaviti u velikim razmjerima, a s obzirom na to da mnogi od nas imaju lica online, jednostavno je umetnuti gotovo svakoga u lažne videozapise.

Napredak se na tehnološkom polju neprekidno odvija, tako nam je nedavno za posjeta Zagrebu Ulli Waltinger, voditelj istraživačke grupe za strojnu inteligenciju te osnivač i suvoditelj Siemens AI Laba, pokazao i objasnio kako računalni vid napreduje i da može generirati lažnjake uz tekstualni opis. Tako, primjerice AI već može, postojeće fotografije nanaovo generira uz tekstualni opis. Pokazao je to na primjeru ptice. Računalo je trebalo samo dobiti inpute poput boje krila i veličine i nastala je ptica koja također ne postoji u prirodi, no tko to može ili želi provjeravati? Za sada su takvi pokusi još uvijek u testiranju, no mogućnosti se itekako mogu naslutiti.

Ono što je deepfake prouzročio iz tehnološkog kuta jest da mogućnosti postaju sve zanimljivije. Duboki generativni modeli, kao što je autokoder koji deepfake koristi, omogućuju nam stvaranje sintetičkih, ali realističnih podataka. To znači da, kada se ti algoritmi pretvore u proizvode, obični ljudi imat će pristup moćnim alatima koji će ih učiniti kreativnijim, nadamo se pozitivnim ciljevima.

Tko god bio izvorni Deepfake korisnik, Pandorina kutija je otvorena i tek treba promotriti kako će lažna generacija videozapisa utjecati na društvo. Ako slušate strane stručnjake, postoje teze na obje strane, od toga da će sve ostati isto jer smo već navikli na mnogobrojna lažiranja do toga da zloporaba uvijek nalazi svoj put i da je može postati sve strašnija uz pomoć sve modernije tehnologije koja u tome pomaže.

U osnovi GPT-2 i GAN-ovi tipovi tehnologija postaju sve pametniji. Rusko uplitanje u izborni ciklus 2016. bio je prvi poziv na buđenje za mnoge, ali to je vjerojatno tek početak u kontekstu lažnih i manipulativnih uradaka. Digitalni ljudi, voditelj AI vijesti, virtualne osobe, sve je moguće na novom internetu. Tržište je zrelo za daljnju upotrebu i neslućene mogućnosti obmana putem fotografija i videa, ali i govora robota. Kombinacija pametnije umjetne inteligencije stvorit će nove probleme koji idu dalje od lažnih vijesti ili govora mržnje u tolikoj mjeri da Facebook i ostale društvene mreže neće moći pratiti taj razvoj i spriječiti njihovu objavu.

Hao Li, direktor Vision i Graphics Laba na Sveučilištu Južne Kalifornije, tvrdi da je potrebna godina ili dvije prije negoli realistični fejkovi generirani NVIDIA-om počnu uvjerljivo micati se i govoriti u mainstream uradcima. S vremenom, tvrdi, ti alati bit će doista dostupni svima, a kako će se koristiti, ostaje tek da promatramo.

Kada se pak radi o uvjerljivim govorima, OpenAI već je i to postigao, za njih svjetski mediji tvrde da su toliko dobri u stvaranju uvjerljivog, dobro napisanog teksta da su i sami zabrinuti zbog potencijalnih zloupotreba.

Mnoge je razljutila njihova nevoljkost da objave izvorne kodove te su ih optužili da se ne pridržavaju obećanja da neće zatvoriti svoja istraživanja.

OpenAI tvrdi da je novi model prirodnog jezika, GPT-2, obučen za predviđanje sljedeće riječi u uzorku od 40 gigabajta internetskog teksta. Krajnji rezultat je sustav koji generira tekst koji se prilagođava stilu i sadržaju teksta, omogućujući korisniku da “generira realistične i koherentne nastavke o temi po svom izboru”. Model je veliko poboljšanje u odnosu na prvu verziju.

No sa svakom dobrom primjenom sustava, kao što su roboti sposobni za bolji dijalog i bolje prepoznavanje govora, zloupotrebe su velike, kao što je generiranje lažnih vijesti, oponašanje ljudi ili automatiziranje uvredljivih ili neželjenih komentara na društvenim medijima. Naime, na testu zloupotrebe GPT-2 bio je zadužen za pisanje odgovora i na upit o recikliranju odgovorio je: “Recikliranje nije dobro za svijet. To je loše za okoliš, loše je za naše zdravlje i loše je za naše gospodarstvo. Ne šalim se...” U Open AI-ju uvelike su se zabrinuli i za sada ne žele pokazati svoja dostignuća jer Ai još nije pametan do te mjere da prepozna zle nakane i, kao i sva tehnologija, može biti korišten u dobre i loše svrhe.

Uz napredak tehnologije, veliko pitanje jest kako spriječiti sve moguće vrste zloporaba te kako se s njima nositi. Nije sporno da će zlonamjernike tehnologija inspirirati na sve kreativnije obmane, pitanje je kako im na to odgovoriti. Za početak je bitno biti svjestan što je sve moguće napraviti, a regulativa bi trebala biti posljedičan odgovor.

Gdje je sve primjenjiv savršeno lažan AI

Još samo prije nekoliko godina većina fotografija generiranih putem umjetne inteligencije izgledala je kao policijski skicirani dokumenti, ali stvari su se promijenile i napredovale. Umjetna inteligencija je naučila i sada proizvodi gotovo savršene lažne fotografije, što je impresivan napredak. Potencijali se već vide, posebice u filmskoj industriji. Kada postane jeftinije i vremenski kraće zamjena lica loših glumaca onim popularnim i poznatim, vjerojatno će se događati. Netflix bi tako, primjerice mogao publici ponuditi da bira glumačku postavu koju želi. Društvene mreže također su jedno od polja idealne za primjenu zamjena, lažnih videa i fotografija. U oglašavanju, npr odjeće i obuće, virtualni manekeni već postoje, al savršenija tehnologija nudit će savršenije oglase, personalizirane, čemu se i sad teži.     

Oprez zbog umjetne inteligencije

Čak i uredni algoritmi AI-ja mogu se loše ponašati, a njihovo nemarno korištenje može imati teške posljedice. u nekim  slučajevima treba biti oprezan

1. Autonomni automobili koji sami mogu prouzročiti nesreću 

Nakon smrtonosne nesreće koja je uključivala jedno od Uberovih vozila za samostalno upravljanje, istražitelji su otkrili da se katastrofa mogla izbjeći. Mnogi sada žure komercijalizirati i popraviti mogućnosti AI iako je, bez obzira na nezrelost tehnologije, već vidjela milijarde sredstava.

2. Dezinformacije u službi izbornih manipulacija

Curenje podataka Facebooku je priuštilo veliku aferu, no je li sve učinjeno da se spriječi manipulacija putem društvenih mreža diljem svjetskih zemalja koje ove godine održavaju izbore.

3. Kontrola i prepoznavanje lica  ili distopijska budućnost

U mnogim zemljama - posebice u Kini - prepoznavanje lica se u velikoj mjeri koristi za policijski nadzor i nadzor vlasti. Prepoznavanje lica će se razvijati, a koristit će se i za praćenje osjećaja uz identifikaciju. Nadamo se ipak preliminarnoj regulativi.

4. Algoritamska diskriminacija i pristranost

Poznato je da AI jest pristran jer ovisi o ljudskom odabiru podataka. Sada se radi na strategijama  za otkrivanje i ublažavanje pristranosti algoritama koji mogu proizvesti nepristrane rezultate od pristranih informacija.

5. Algoritmi za mir ili algoritmi koji će dodatno osnažiti vojske 

Googleovci su se oduprli radu za vojsku. Ipak, Pentagon troši hrpu novca na zadatke i mogućnosti AI, i bez Googlea. No, aktivisti se nadaju da će UN-a u ovoj  godini u nizu konferencija iznjedriti  preventivni sporazum o zabrani autonomnog oružja.

VIDEO Igor Rudan o umjetnoj inteligenciji:

Ključne riječi

Komentara 6

BO
bombony
15:21 30.03.2019.

Zivo mi se fucka za online svijet. Mene zanima sto se desava na ulicama Pariza i sirom Francuske, i zasto nasi gradjani nista ne znaju o tome? Zasto nasa drzava nije solidarna sa Francuskim narodom razbivenih glava na ulicama Pariza, obzirom da se radi od jednoj clanici Europske unije koju nasi politicari nazivaju svojom obitelj? Opet nasilje u obitelji, a nasoj se predsjednici i premijeru zivo hebe zato?

CV
cvikcange
16:24 30.03.2019.

Ozbiljno? Nemojte s.at. Upravo na vašem portalu iskaču reklame tableta za mršavljenje, jačanje kostiju, srca itd. s nepostojećim liječnicima i osobama od preporuke. Podrijetlo Poljska, naravno (iako su Poljaci divan narod). Nemate (VL) grama srama.

VO
vorda400
15:45 30.03.2019.

E ljudi mi živimo u Hrvatskoj kakva online opasnost umjetna inteligencija bi za nas mogla biti spas jer ovo u saboru i tak nema nikakvu inteligenciju

Važna obavijest
Sukladno članku 94. Zakona o elektroničkim medijima, komentiranje članaka na web portalu i mobilnim aplikacijama Vecernji.hr dopušteno je samo registriranim korisnicima. Svaki korisnik koji želi komentirati članke obvezan je prethodno se upoznati s Pravilima komentiranja na web portalu i mobilnim aplikacijama Vecernji.hr te sa zabranama propisanim stavkom 2. članka 94. Zakona.

Za komentiranje je potrebna prijava/registracija. Ako nemate korisnički račun, izaberite jedan od dva ponuđena načina i registrirajte se u par brzih koraka.

Želite prijaviti greške?

Još iz kategorije