Svjetski stručnjaci i poduzetnici iz 26 zemalja, njih 116 uključujući osebujnog Elona Muska, šefa Tesle i Space X-a, potpisali su i poslali pismo na adresu Ujedinjenih naroda upozoravajući na Pandorinu kutiju koju predstavlja oružje sposobno samo odlučiti kada će i koga ubiti. Ubojiti autonomni roboti ili autonomno oružje prijetnja su čovječanstvu, ustvrdili su stručnjaci. Prema nekima izvještajima, navodno traže da UN zabrani takvo naoružanje, dok drugi tvrde da su tražili samo da se uspostavi oštrija i jasnija regulativa kada se radi o proizvodnji i primjeni autonomnog oružja, a pri tom su ponudili i savjetničke usluge. Jer, objasnili su, granica, kad je riječ o oružju koje može samostalno donositi odluke kada da puca i ubija i naprednom oružju kojim na daljinu upravljaju ljudi, već je vrlo tanka i nejasna.
Vojna moć sve veća
U posljednjem izvješću o umjetnoj inteligenciji i ratu koje je naručio ured DNI, obavještajne agencije pri UN-u, stoji da tehnologija dovodi do dramatičnog povećanja vojne moći. Greg Allen, koautor izvješća, ne očekuje da će SAD i druge zemlje moći zaustaviti stvaranje arsenala oružja koje može odlučiti kada će pucati. “Malo je vjerojatno da se može postići potpuna zabrana autonomnog oružja”, kaže on. “Iskušenje za njegovo korištenje bit će vrlo veliko.”
Ovo nije prvi put da se upozorava na ubojitost i opasnosti umjetne inteligencije. Znanstvenik Stephen Hawking već nekoliko godina to radi, kao i Elon Musk, oni tvrde da je umjetna inteligencija najveći rizik s kojim se suočavamo kao civilizacija te pozivaju na brzu i odlučnu intervenciju države koja treba nadzirati razvoj tehnologije. Ljudi trebaju biti zabrinuti zbog razvoja umjetne inteligencije pogotovu kada je riječ o njezinoj vojnoj primjeni. Teorijski fizičar S. Hawking još je prije dvije godine podržao brojne znanstvenike koji se protive upotrebi umjetne inteligencije za oružje.
“Ako bilo koja vojna sila počne razvijati oružje koje koristi umjetnu inteligenciju, globalna utrka u naoružanju praktički je neizbježna i ishod te tehnološke avanture je očit: autonomno oružje postat će kalašnjikov sutrašnjice”, poručio je Hawking u zajedničkom otvorenom pismu zabrinutih znanstvenika. On smatra da je utrka u naoružanju loša ideja i treba je spriječiti “zabranom napadačkog autonomnog oružja bez ljudske kontrole”.
Prema znanstvenoj definiciji, autonomno oružje je ono koje je sposobno samo birati i napadati mete. U principu, takvo što u vojnim arsenalima još ne postoji, barem ne u onim javno dostupnim. Jer, bespilotne letjelice s projektilima, razna robotizirana oklopljena i naoružana vozila ne spadaju u autonomno oružje jer njima još uvijek daljinski upravljaju vojnici. Makar i s udaljenosti od nekoliko tisuća kilometara, kao što je to slučaj s velikim bespilotnim letjelicama SAD-a koje gađaju ciljeve u Afganistanu, ali ih navodi operater iz Kalifornije, primjerice. No postoji, primjerice, AEGIS, navođena raketa na brodovima u američkoj mornarici koja je granična jer je sposobna sama se aktivirati u slučaju da se približava avion, bez ljudske intervencije, prema izvješću CNAS-a. Dron Harpy, proizveden u Izraelu, patrolira u svom području tražeći radarske signale, ako ih nađe, automatski ih uništava bombom, a Izraelci ga nazivaju “Pucaj i zaboravi autonomno oružje”.
Rojevi autonomnih letjelica
Ruski mediji pak tvrde da već sada postoji softver koji omogućava da se istovremeno upravlja grupom od šest letjelica, a u perspektivi će roj bespilotnih letjelica moći samostalno napadati neprijateljske avione, helikoptere i krstareće rakete. Ruski znanstvenici kažu da je princip jednostavan: na bespilotne letjelice postavlja se specijalni softver i hardver koji regulira ponašanje drona u odnosu na druge sudionike “roja” te senzori za orijentaciju u prostoru. Rakete potom odabiru ciljeve prema važnosti. Dok jedna uništava prvi cilj, ostale “čekaju”, pa druga uništava sljedeći cilj, ili napadaju zajednički.
No Rusi kažu da u ovoj fazi nitko još neće poslati dronove da samostalno ratuju. To znači da će i novi predloženi sustav oružja biti tek robotiziran, dakle rješavanje postavljenog (ubojitog) zadatka neće biti moguće bez operatera. Zasad. Što se tiče zabrane, mnogi smatraju da bilo kakva zabrana nikako neće biti učinkovita, no kada se radi o regulativi, svakako bi je trebalo donijeti kada se radi o cijelom AI području.
I'll bee back.....