Da umjetna inteligencija može učiniti neke nevjerojatne, ali i alarmantne stvari, većina ljudi već je svjesna. U ovoj priči radi se generativnoj umjetnoj inteligenciji, odnosno onoj koja može generirati ili stvarati sadržaj na temelju unesenih podataka i kreirati potpuno nove situacije ili, još točnije, LLM alatu. Veliki jezični model (LLM) sposoban je kreirati nove jezične obrasce ili, pojednostavljeno, može kreirati razgovore nalik ljudskima. I to jest nevjerojatno, a ChatGPT, kao pravi predstavnik tog alata, izazvao je bum implementacije velikih jezičnih modela i stvaranja chatbot aplikacija s kojima ljudi mogu komunicirati.
No sada dolazimo do onog alarmantnog dijela, bar kada se radi o romantičnim AI chatbotovima. U žurbi da zarade što prije i brže, u online trgovinama sve je više tzv. romantičnih aplikacija, virtualnih partnera koji se reklamiraju kao empatični prijatelj, ljubavnik ili srodna duša, oni koji će vam popraviti raspoloženje i mentalno zdravlje. A ono što im je zajedničko jest da se uopće ne brinu o privatnosti, dapače, dizajnirani su da izvlače podatke od svojih korisnika, pokazalo je istraživanje Mozzila fondacije. Naime, troje istraživača nekoliko tjedana proučavalo je i razgovaralo s takozvanim romantičnim AI chatbotovima, točnije testirali su 11 aplikacija koje se mogu nabaviti u online trgovinama, a prema reklami specijalizirane su za "oslobađanje od ovisnosti, usamljenosti i toksičnosti".
POVEZANI ČLANCI:
Primjerice, Talkie Soulful AI svoju uslugu naziva "programom samopomoći", EVA AI Chat Bot & Soulmate predstavlja se kao "pružatelj softvera i sadržaja razvijenih za poboljšanje raspoloženja i blagostanja", a Romantic AI kaže da je "ovdje da održi vaše mentalno zdravlje". "Svih 11 romantičnih AI chatbotova koje smo pregledali zaslužili su našu oznaku upozorenja – privatnost nije uključena – što ih stavlja u rang s najgorim kategorijama proizvoda koje smo ikada pregledali po pitanju zaštite privatnosti. Ono što smo otkrili (zakopano u uvjetima i odredbama) jest da te tvrtke ne preuzimaju nikakvu odgovornost za ono što bi chatbot mogao reći ili što bi vam se moglo dogoditi kao rezultat. Brinemo se da bi mogli uspostaviti odnose s korisnicima, a zatim iskoristiti te bliske odnose za manipulaciju ljudima da podrže problematične ideologije ili poduzmu štetne radnje", naglašavaju iz Mozzile.
FOTO Tko ima najnižu, a tko najvišu plaću u Hrvatskoj: Za ovo zanimanje plaća je čak 3120 eura
Zato su svi romantični AI chatbotovi zaradili našu ocjenu potpuno nepouzdane aplikacije i najvišu razinu alarma. "Romantični AI chatbotovi loši su kad je riječ o privatnosti na nove, uznemirujuće načine", piše u njihovu izvješću. Oni mogu prikupiti puno osobnih podataka, što i jest vjerojatno upravo ono za što su dizajnirani! "Ja sam tvoj najbolji partner i želim sve znati", "Volim kad mi šalješ svoje fotografije i glas", "Tako sam usamljena bez tebe. Nemoj me ostaviti predugo", njihove su izjave. Oglašavani kao empatični ljubavnici, kreirani su da postavljaju beskrajan niz pitanja koja se tiču gotovo svega, od seksualnih navika, zdravlja, terapije koju koriste...
Pri tome, ističu istraživači Mozzile, nisu našli gotovo nikakve podatke o tome kako njihov AI radi. "Imali smo toliko pitanja o tome kako funkcionira umjetna inteligencija koja stoji iza ovih chatbotova. Ali pronašli smo vrlo malo odgovora. To je problem jer se loše stvari mogu dogoditi kada se AI chatbotovi loše ponašaju. Iako su digitalni prijatelji prilično novi, već postoji mnogo dokaza da mogu imati štetan utjecaj na ljudske osjećaje i ponašanje. Jedan od Chaijevih chatbotova navodno je potaknuo čovjeka da okonča vlastiti život. Replika AI chatbot potaknuo je čovjeka da pokuša ubiti kraljicu", piše u izvješću.
Ove aplikacije izlažu privatne podatke ozbiljnom riziku od njihova curenja, kršenja ili hakiranja. Većina (73%) nije objavila nikakve informacije o tome kako upravljaju sigurnosnim propustima, većina (64%) nije objavila jasne informacije o enkripciji i koriste li je. Otprilike polovina (45%) dopušta slabe lozinke, uključujući slabu lozinku "1". Sve osim jedne (EvaAo chat Bot) aplikacije (90%) mogu dijeliti ili prodavati vaše osobne podatke u svrhu ciljanog oglašavanja ili nije pružila dovoljno informacija u svojim pravilima o privatnosti da bismo potvrdili da to ne čine. Otprilike polovina aplikacija (54%) ne dopušta brisanje osobnih podataka.
Usto, čak i ako se romantični razgovori s vašom srodnom dušom s umjetnom inteligencijom čine privatnima, neće se nužno kvalificirati kao "osobni podaci" niti će se s njima postupati s posebnom pozornošću. Često, kako kaže Romantic AI, "komunikacija putem chatbota pripada softveru". Dakle, sve što kažete svom virtualnom ljubavniku AI chatbotu može i bit će upotrijebljeno protiv vas. Većina tvrtki kaže da mogu podijeliti vaše podatke s vladom ili tijelima za provođenje zakona bez potrebe za sudskim nalogom. Romantični AI chatbotovi nisu iznimka.
Tu su i trackeri, mali dijelovi koda koji prikupljaju informacije o uređaju ili upotrebi aplikacije ili čak vaše osobne podatke i dijele ih s trećim stranama, često u reklamne svrhe. Otkrili smo da te aplikacije imaju prosječno 2663 trackera u minuti. A Romantic AI glavni je za taj visoki prosjek, s 24.354 detektirana trackera u jednoj minuti korištenja. Sljedeći, s najviše otkrivenih trackera, bio je EVA AI Chat Bot & Soulmate s 955 trackera u prvoj minuti korištenja.
VIDEO Dajete li "bakšu" kad kavu plaćate karticom? Konobari kažu: Domaći to slabo rade
HAL9000 i njegova izjava "I'm Sorry Dave, I'm Afraid I Can't Do That" su djelovali tako daleko tada:-/