Poslali pismo UN-u

'Prijetnja čovječanstvu': Treba li zabraniti autonomno oružje?

robot
Foto: Thinkstock
1/2
28.08.2017.
u 10:02

Kada se govori o razvoju tehnologije, vojska je pravi poligon bilo da se radi o razvoju, testiranju i pravoj primjeni. Ima li razloga za paniku? Za oprez – svakako!

Svjetski stručnjaci i poduzetnici iz 26 zemalja, njih 116 uključujući osebujnog Elona Muska, šefa Tesle i Space X-a, potpisali su i poslali pismo na adresu Ujedinjenih naroda upozoravajući na Pandorinu kutiju koju predstavlja oružje sposobno samo odlučiti kada će i koga ubiti. Ubojiti autonomni roboti ili autonomno oružje prijetnja su čovječanstvu, ustvrdili su stručnjaci. Prema nekima izvještajima, navodno traže da UN zabrani takvo naoružanje, dok drugi tvrde da su tražili samo da se uspostavi oštrija i jasnija regulativa kada se radi o proizvodnji i primjeni autonomnog oružja, a pri tom su ponudili i savjetničke usluge. Jer, objasnili su, granica, kad je riječ o oružju koje može samostalno donositi odluke kada da puca i ubija i naprednom oružju kojim na daljinu upravljaju ljudi, već je vrlo tanka i nejasna.

Vojna moć sve veća

U posljednjem izvješću o umjetnoj inteligenciji i ratu koje je naručio ured DNI, obavještajne agencije pri UN-u, stoji da tehnologija dovodi do dramatičnog povećanja vojne moći. Greg Allen, koautor izvješća, ne očekuje da će SAD i druge zemlje moći zaustaviti stvaranje arsenala oružja koje može odlučiti kada će pucati. “Malo je vjerojatno da se može postići potpuna zabrana autonomnog oružja”, kaže on. “Iskušenje za njegovo korištenje bit će vrlo veliko.”

Ovo nije prvi put da se upozorava na ubojitost i opasnosti umjetne inteligencije. Znanstvenik Stephen Hawking već nekoliko godina to radi, kao i Elon Musk, oni tvrde da je umjetna inteligencija najveći rizik s kojim se suočavamo kao civilizacija te pozivaju na brzu i odlučnu intervenciju države koja treba nadzirati razvoj tehnologije. Ljudi trebaju biti zabrinuti zbog razvoja umjetne inteligencije pogotovu kada je riječ o njezinoj vojnoj primjeni. Teorijski fizičar S. Hawking još je prije dvije godine podržao brojne znanstvenike koji se protive upotrebi umjetne inteligencije za oružje.

“Ako bilo koja vojna sila počne razvijati oružje koje koristi umjetnu inteligenciju, globalna utrka u naoružanju praktički je neizbježna i ishod te tehnološke avanture je očit: autonomno oružje postat će kalašnjikov sutrašnjice”, poručio je Hawking u zajedničkom otvorenom pismu zabrinutih znanstvenika. On smatra da je utrka u naoružanju loša ideja i treba je spriječiti “zabranom napadačkog autonomnog oružja bez ljudske kontrole”.

Prema znanstvenoj definiciji, autonomno oružje je ono koje je sposobno samo birati i napadati mete. U principu, takvo što u vojnim arsenalima još ne postoji, barem ne u onim javno dostupnim. Jer, bespilotne letjelice s projektilima, razna robotizirana oklopljena i naoružana vozila ne spadaju u autonomno oružje jer njima još uvijek daljinski upravljaju vojnici. Makar i s udaljenosti od nekoliko tisuća kilometara, kao što je to slučaj s velikim bespilotnim letjelicama SAD-a koje gađaju ciljeve u Afganistanu, ali ih navodi operater iz Kalifornije, primjerice. No postoji, primjerice, AEGIS, navođena raketa na brodovima u američkoj mornarici koja je granična jer je sposobna sama se aktivirati u slučaju da se približava avion, bez ljudske intervencije, prema izvješću CNAS-a. Dron Harpy, proizveden u Izraelu, patrolira u svom području tražeći radarske signale, ako ih nađe, automatski ih uništava bombom, a Izraelci ga nazivaju “Pucaj i zaboravi autonomno oružje”.

Rojevi autonomnih letjelica

Ruski mediji pak tvrde da već sada postoji softver koji omogućava da se istovremeno upravlja grupom od šest letjelica, a u perspektivi će roj bespilotnih letjelica moći samostalno napadati neprijateljske avione, helikoptere i krstareće rakete. Ruski znanstvenici kažu da je princip jednostavan: na bespilotne letjelice postavlja se specijalni softver i hardver koji regulira ponašanje drona u odnosu na druge sudionike “roja” te senzori za orijentaciju u prostoru. Rakete potom odabiru ciljeve prema važnosti. Dok jedna uništava prvi cilj, ostale “čekaju”, pa druga uništava sljedeći cilj, ili napadaju zajednički.

No Rusi kažu da u ovoj fazi nitko još neće poslati dronove da samostalno ratuju. To znači da će i novi predloženi sustav oružja biti tek robotiziran, dakle rješavanje postavljenog (ubojitog) zadatka neće biti moguće bez operatera. Zasad. Što se tiče zabrane, mnogi smatraju da bilo kakva zabrana nikako neće biti učinkovita, no kada se radi o regulativi, svakako bi je trebalo donijeti kada se radi o cijelom AI području.

Komentara 3

ND
Novi dan isti mrak novo sranje
10:50 28.08.2017.

I'll bee back.....

ME
Menjik
11:44 28.08.2017.

ko je napravio autonomne oružje? covjek! covjek je sam sebi najveća opasnost.

MI
milecar12
17:13 28.08.2017.

Jedina opasnost u autonomnom oružanju je čovjek. Dakle, ono što čovjek zezne, ono što namjerno uvede da remeti rad umjetne inteligencije nije problem autonomnog oružja, nego čovjeka kojeg umjetna inteligencija nažalost nije dovoljno brzo eliminirala.

Važna obavijest
Sukladno članku 94. Zakona o elektroničkim medijima, komentiranje članaka na web portalu i mobilnim aplikacijama Vecernji.hr dopušteno je samo registriranim korisnicima. Svaki korisnik koji želi komentirati članke obvezan je prethodno se upoznati s Pravilima komentiranja na web portalu i mobilnim aplikacijama Vecernji.hr te sa zabranama propisanim stavkom 2. članka 94. Zakona.

Za komentiranje je potrebna prijava/registracija. Ako nemate korisnički račun, izaberite jedan od dva ponuđena načina i registrirajte se u par brzih koraka.

Želite prijaviti greške?

Još iz kategorije