BEZ NJE NE MOŽEMO

Kamo nas vodi razvoj umjetne inteligencije

Foto: Thinkstock
roboti umjetna inteligencija
Foto: Thinkstock
Umjetna inteligencija
Foto: DANNY MOLOSHOK/REUTERS/PIXSELL
Elon Musk
30.10.2017.
u 14:07
Ni u najoptimističnijoj projekciji ne smijemo zaboraviti na mogućnost hakiranja AI-a
Pogledaj originalni članak

Čovjek je kroz povijest oduvijek bio izvrstan u korištenju alata. Od rudimentarnih primjena oštrog kamena u stilu noža i izuma kotača pa do modernih alata širokog spektra koji su omogućili čovjeku da vlada prirodnim resursima i stvori dosad najperspektivnije uvjete za život.

Da nije bilo industrijskih revolucija i inovacija, teško da bi se stvorila dovoljna količina hrane, opreme, lijekova i svih drugih dobara bez kojih ljudska vrsta ne bi opstala, a kamoli napredovala. Je li se čovjek toliko usavršio u izradi alata da nam slijedi budućnost u kojoj će se alati poput umjetne inteligencije ili robota izmaknuti čovjekovoj kontroli i početi odlučivati za sebe i u svoju korist, a ne na dobrobit svojeg kreatora?

Posljednjih godina ove teze možemo vidjeti i izvan hollywoodskih filmova i TV serija. Neki od renomiranih tehnoloških stručnjaka, pa i znanstvenika poput Elona MuskaStephena Hawkinga, Billa Gatesa i drugih, počeli su javno upozoravati na potencijalne opasnosti od umjetne inteligencije i zazivati odgovorno razvijanje. Nedavno je Elon Musk pisao da je umjetna inteligencija veća opasnost od Sjeverne Koreje. A čak se i javno posvađao s Markom Zuckerbergom, šefom Facebooka, koji upotrebljava algoritme bazirane na strojnom  učenju, esencijalnom alatu za razvijanje boljeg softvera koji uči iz golemih baza podataka. 

>>ZA - Kako bez nje umjetne inteligencije osvojiti svemir i liječiti rak?

>>PROTIV - Želimo li svijet u kojem su ljudi višak

Tko je kriv ako samovozeće vozilo napravi štetu?

Jedno od pitanja koja se posebno postavljaju jest može li čovjek naučiti umjetnu inteligenciju moralitetu i etici. Također, smije li se dopustiti robotu da samostalno odlučuje o životu nekog čovjeka? U iščekivanju smo uvođenja serije autonomnih vozila bez ljudskog vozača. Tko će snositi odgovornost za nesreću koju prouzroči samovozeće vozilo, putnik, vlasnik ili dizajner takvog stroja? Što ako je vojni robot na ratištu i mora odlučiti hoće li spašavati jednog generala ili pet vojnika, a ima vremena samo za jedno od toga.

Na ova pitanja još nema točnih odgovora, no barem na temi samovozećih automobila imamo podatke da bi takva vozila prouzročila znatno manje prometnih nesreća nego što to čine ljudi.  

Mnogi stručnjaci koji se bave razvojem ili proučavanjem umjetne inteligencije usporedili bi je s djetetom koje stječe vrijednosti odgojem, promatranjem i skupljanjem iskustva. Čovjek razvija osjećaj etike promatrajući ponašanja drugih ljudi. 

Tako je jedan projekt razvoja umjetne inteligencije u Češkoj – GoodAI (dobra umjetna inteligencija) uveo digitalnog mentora koji nadzire proces učenja i donošenja odluka softvera. "Ljudi ne puštaju svoju djecu da sami prelaze cestu nego ih godinama uče da paze na automobile i semafore. Tako i mi postupno umjetnoj inteligenciji uvodimo sve kompleksnije scenarije", izjavio je osnivač centra GoodAI Marek Rosa za Economist.

Da je Microsoft pratio njihov primjer postupnog razvoja, možda bi izbjegao lanjski debakl s automatskim Twitter profilom koji je zastranio u najniže razine internetske komunikacije. Na taj primjer podsjetio nas je Marko Kos, asistent na Katedri za etiku pri Odsjeku za filozofiju zagrebačkog Filozofskog fakulteta. 

"TayTweets neslavno je ugašen budući da je u nepunih 12 sati došao od stajališta "ljudi su super" do stajališta "Hitler je bio u pravu, mrzim Židove", učeći na iskustvu internetske komunikacije. Pojedinci koji su pratili razvoj chatbota Tay zamijetili su već u prva 24 sata da je komunikacija na internetu zabrinjavajuća. Tay bez "kućnog odgoja" koji bi usadio osnovne parametre od kojih ne može odstupiti, vjerojatno nema drugih opcija nego postati rasistička i seksistička ličnost", zaključuje Kos.

'Neće ih biti briga'

On vjeruje da postoji mogućnost da čovjek razvije umjetnu inteligenciju koja će oponašati ili biti slična čovjekovoj i ta vjerojatnost raste iz dana u dan. No, upozorava da to ne znači da će umjetna inteligencija prihvatiti etička načela.

"Činjenica da neko biće posjeduje intelekt, ove ili one vrste, ne garantira da razumije pojmove "moral" i "etika". Postoje mnoge pretpostavke zašto umjetna inteligencija neće moći interiorizirati etička načela ili moralitet, iako će vjerojatno razumjeti njihove rječničke definicije. Nedavno preminuli američki filozof Hubert Dreyfus u jednom od svojih intervjua sažeo je svoj odgovor u sljedeću tvrdnju: "Neće ih biti briga." Moj stav nadovezuje se na Dreyfusov – intelekt ne garantira mogućnost emotivne investicije i mogućnost metaforičkog mišljenja. Odnosno, naša mogućnost da rezoniramo na visokoj razini o objektima oko sebe ne garantira da posjedujemo razinu mišljenja u kojoj preko asocijacija koje čine jedinstvenu sliku našeg unutarnjeg života stvaramo scenarije koji na metaforičkoj razini imaju iste interpretacije. Životi drugih pojedinaca u društvu možda su nam strani, ali u svojoj suštini, oni su ujedno i naši životi. Jedinstvena naličja istog fenomena ljudskog života. Pretpostavljam da umjetna inteligencija u tom kontekstu može samo oponašati život nekog pojedinca, no ne vjerujem da će živjeti vlastitu interpretaciju života. Na tom tragu možemo problematizirati i pojam odgovornosti. Tko će biti odgovoran za nemoralno ili štetno djelovanje umjetne inteligencije po život nekog pojedinca, društva u cjelini ili okoliša", pita se Kos, a dodaje i još jedan potencijalni problem: 

"Čak ni u najoptimističnijoj projekciji ne smijemo zaboraviti na mogućnost hakiranja. Analiza razvoja znanstvenih otkrića uči nas da naše djelovanje u sadašnjosti katkada ima nepredvidive, odgođene posljedice za našu budućnost."

Jedan od poznatih primjera razvoja umjetne inteligencije je IBM-ov Watson, koji je daleko dogurao otkad je 2011. pobijedio u kvizu Izazov. Ima niz primjena, a Watson za onkologiju mogao bi postati iznimno koristan asistent liječnicima u borbi protiv raka. 

Iz IBM-a su nam poslali svoj manifest pravila po kojima svi njihovi programi uvijek moraju ostati pod ljudskom kontrolom. 

– Mi radimo više na "proširenoj inteligenciji" nego na "umjetnoj inteligenciji". To je ključna razlika između sustava koji pojačavaju i povećavaju ekspertize čovjeka (proširena inteligencija) i onih sustava koji pokušavaju replicirati ljudsku inteligenciju (umjetna inteligencija). Naše šire područje djelovanja s proširenom inteligencijom volimo zvati "kognitivnim računalstvom". Kognitivno računalstvo širok je paket mogućnosti zasnovanih na tehnologijama poput strojnog učenja, tehnologijama zaključivanja i odlučivanja, jezičnih i vizualnih tehnologija, tehnologija s kojima se čovjek povezuje, na supersnažnim računalima i novim računalnim arhitekturama i uređajima. Sve ove mogućnosti dizajnirane su da riješe širok spektar praktičnih problema, da povećaju produktivnost i začnu nova otkrića u cijelom nizu industrijskih grana. Posvećeni smo stvaranju sustava koji polučuju povjerenje među developerima i korisnicima umjetne inteligencije. Vode nas kognitivni principi koji obvezuju i IBM i sve one koji ulažu novac u umjetnu inteligenciju da stvaraju tehnologiju koja je etički odgovorna. Ti principi uključuju svrhu, transparentnost i vještine. Svrha te tehnologije jest proširiti inteligenciju čovjeka. Neće AI sustavi postati svjesna bića, ali bit će ugrađeni u procese poslovanja i društva. I ostat će pod ljudskom kontrolom. Da bismo takve sustave maksimalno iskoristili, moramo imati povjerenja u njih – poručila je Harriet Green, direktorica Watson Internet of Things jedinice.

IBM se deklarativno u svojim pravilima obvezao da će uvijek transparentno prikazati primjenu umjetne inteligencije u kognitivnim sustavima koje razvija. 

Igor Čatić, profesor emeritus, umirovljeni profesor na Fakultetu strojarstva i brodogradnje u Zagrebu, podsjeća da na pitanje razvoja umjetne inteligencije filozofi gledaju kroz jednu prizmu, a inženjeri kroz drugu. No uvjeren je da se razvoj umjetne inteligencije ne može zaustaviti. "Previše je ulaganja da bi se ti procesi zaustavili", zaključuje prof. Čatić. 

Jedno je sigurno, debata će se nastaviti, a to možda dovede i do međunarodnih pravila razvoja umjetne inteligencije. 

>>ZA – Kako bez umjetne inteligencije osvojiti svemir i liječiti rak?

>>PROTIV – Želimo li svijet u kojem su ljudi višak?

Pogledajte na vecernji.hr

Komentari 3

KE
kentie
15:03 30.10.2017.

koje pitanje u 21. stoljeću...banalno i prebanalno.....ajde društvo, pogledajte mobilne fotke pod nazivom: I, robot-glavna uloga: Will Smith, Blockbuster i dobra reklama za US Robotics...elem dakle, radnja po sadašnjem vremenskom obzorju i nije tako daleko i predaleko smještena i namještena: 2036. goda v metropoljisu: Chicagu. Mam u vorspanu filma su istaknuta tri zakona robotike koje je, pazite sad, davne i pradavne 1947. godine, postavio i napisao dobri stari Isaac Asimov....I u tom filmu I, robot se dogodilo hakiranje: androidi i roboti-humanoidi podivljali i krenuli u bjesomučni rat protif ljudi. Dogodil se mali sentimento, ko-glavni junak robot se zaljubil u partnericu Willa Smitha, i zapao je u gadne moralne i ljubavne dileme i trileme....novinaru i društvo prvo dobro pogledajte te mobilne fotke, pa onda pisujte i zapisujte o umjetnoj inteligenciji... o mobil fotkama "Stealth" da i ne govorim...i to dobro proštudirajte....zloćudne i zlodušne varijante su neizmjerne i neizbježne....u ne tako dalekoj zori i budućnosti ljudovanja...

DU
Deleted user
14:59 30.10.2017.

Ništa ne može učiniti veću štetu od naših političara. Umjetna inteligencija može biti hakirana, političari su uvijek hakirani, umjetna inteligencija nema osjećaje ali nemaju ih ni političari. Gdje je onda problem u umjetnoj inteligenciji?

Avatar jest
jest
15:02 30.10.2017.

Iz lampe jednom pušten duh nikada se ne vraća u lampu, mogli smo to vidjeti na već niz primjera kroz povijest a možda nigdje tako pogubno kao u slučaju eksploziva i posebno atomske bombe. Štoviše što god smišljeno s dobrim namjerama kako bi služilo čovječanstvu, naposlijetku je zlorabljeno da bi uništavalo čovječanstvo, primjerice zrakoplovstvo (ratno zrakoplovstvo i dronovi) a primjer atomske bombe bi trebao biti vjerojatno zadnje upozorenje čovječanstvu. U tom smislu se slažem da Muskom, problem Sjeverne Koreje koja je problematična upravo zbog atomskog naoružanja tek je neznatni problemčić u usporedni s problemom koji ćemo imati ukoliko razvijemo umjetnu inteligenciju, dakle inteligenciju razine čovječje. Tko je pratio razvoj tehnologije zadnjih desetljeća mogao je vidjeti da su danas strojevi daleko učinkovitiji od čovjeka a cijeli niz stvari čovjek naprosto ni ne može sam činiti, tu je izvrstan primjer optimalni redoslijed sklapanja dijelova velikih civilnih zrakoplova, matematički problem koji čovjek svojim kognitivnim ograničenjima može reješavati godinama a stroj svega u nekoliko koraka. Kada sve ovo znamo, kako možemo računati da bi stroj ljudske inteligencije iz nekih čudnih razloga odlučio tolerirati svu tu ljudsku "nespsobnost" i još biti podčinjen čovjeku? Proširena inteligencija je vrh onoga što UN treba dozvoliti i takva definicija je etička nužnost za očuvanje ljudske vrste.