U Natureu je izašao vrlo zanimljiv tekst koji potpisuje i Eric Horvitz, direktor za znanost u Microsoftu. Tekst se bavi pitanjem hoće li umjetna inteligencija zapravo usporiti energetsku tranziciju u svijetu. Ako takav tekst supotpisuje i netko poput Horvitza čija je kompanija glavni ulagač u trenutačno najutjecajniju tvrtku u razvoju umjetne inteligencije, a to je Open AI, onda je to nešto što vrijedi pročitati.
Osnovna teza nije nešto što već nismo čuli. Zbog naglog širenja i sve veće primjene umjetne inteligencije potrebe za energijom višestruko će nadmašivati trenutne. Do tih saznanja došli su i u Vertivu, jednoj od vodećih tvrtki za izgradnju podatkovnih centara, koji će pojavom umjetne inteligencije vjerojatno i najvećim dijelom promijeniti svoju svrhu, odnosno biti daleko više od pukog prostora za pohranu podataka.
Jer, takvi će centri, i serveri i sustavi u njima, morati podnijeti daleko veća opterećenja nego do sada, a to se odnosi i na potrošnju električne energije jer će dobar dio odlaziti na hlađenje koje će morati biti vodeno umjesto kao do sada zračno. Logično je pretpostaviti kako će to izazvati ukupno povećanje potrošnje električne energije pa tako usporiti energetsku tranziciju te utjecati na razinu stakleničkih plinova.
POVEZANI ČLANCI:
Prema tvrdnjama Horvitza i kolega mu suautora nitko za sada ne zna točno koliki će zapravo biti taj utjecaj. Tako ne znamo ni hoće li koristi koje bi umjetna inteligencija vjerojatno donijela biti dovoljno velike da kompenziraju eventualno neočekivanu potrošnju energije. Ono što za sada znamo jest da veliki modeli umjetne inteligencije počivaju na milijunima posebno napravljenih procesora u za AI složenim podatkovnim centrima opremljenima snažnim sustavima za hlađenje.
Samo procesori instalirani lani povuku između sedam i 11 TWh električne energije što je oko 0,04 posto globalnih potreba za strujom godišnje. To je još uvijek manje u odnosu na rudarenje kriptovaluta na koje se troši od 100 do 150 TWh kao i od konvencionalnih podatkovnih centara koji troše od 500 do 700 TWh, na što zajedno otpada između 2,4 do 3,3 posto globalne potražnje za električnom energijom, barem prema podacima Međunarodne agencije za energiju za 2022. godinu.
Prema svemu tome, u ovom trenutku na umjetnu inteligenciju otpada tek oko 0,01 posto emisija stakleničkih plinova što je procjena spomenute agencije jer na podatkovne centre i mreže prijenosa podataka otpada oko 0,6 posto. Samo, računalni kapacitet koji se koristi za uvježbavanje jezičnih modela umjetne inteligencije poraste za deset puta svake godine, a procjena je da će se potražnja za uslugama temeljenima na umjetnoj inteligenciji uvećati za 30 do 40 posto godišnje u sljedećih pet do deset godina. Logično, snažniji modeli umjetne inteligencije trebat će i više energije.
Prema jednoj procjeni koja se iznosi u ovoj analizi potrošnja energije ove godine, povezana s korištenjem umjetne inteligencije, mogla bi biti deset puta veća nego što je bila 2023. Toliko se u Sjedinjenim Državama godišnje potroši na gledanje televizije. Ovdje se navodi da to ipak ne bi trebalo izazvati naglo povećanje emisije stakleničkih plinova jer se računa kako će tehnološki napredak povećati efikasnost korištenja energije i tako to kompenzirati.
Takvo mišljenje stvoreno je na temelju iskustava u prethodnom desetljeću kada je došlo do naglog rasta broja podatkovnih centara pa se nije dogodilo ništa sličnoga. Svakako se računa i na napredak u samim modelima gdje se navodi kako već danas manji modeli poput Microsoftova Phi-2 i Googleova Gemini Nanoa mogu raditi ono što je sve donedavno bilo rezervirano samo za najveće modele. Također kompanije iz sektora svoje centre uspostavljaju u zemljama i regijama gdje postoji izobilje zelene energije, kao što je to Island. Sasvim je sigurno da će ugradnja umjetne inteligencije u postojeće sustave od zdravlja pa do zabave prouzročiti veću potrošnju električne energije. Pri tome pojeftinjuje eksploatacija nafte i plina pa nije nemoguće da se proizvođači energije dodatno okrenu tim izvorima koji će time biti još dostupniji i jeftiniji.
POVEZANI ČLANCI:
Od početka je jasno da bi rašireno korištenje umjetne inteligencije sasvim sigurno moglo produbiti imovinski jaz u mnogim, poglavito siromašnim područjima, a sve to na ovaj bi ili onaj način moglo utjecati na razinu emisija. Kako će sve to izgledati u budućnosti, nitko ne zna, jasno je samo da se ne može tek kvantificirati utjecaje temeljeno na prijašnjim iskustvima drugih pa i sličnih sektora. Prema tome jedino se može razmišljati o različitim scenarijima koje bi korištenje umjetne inteligencije moglo donijeti. Na nedavnom susretu s novinarima Igor Grdić, regionalni direktor za srednju i istočnu Europu i član IUprave tvrtke Vertiv Croatia, rekao je kako izazovi, odnosno zahtjevi pri izgradnji podatkovnih centara zbog umjetne inteligencije eksponencijalno rastu.
– Riječ je o najmanje peterostruko većoj potrebi za električnom energijom za podatkovne centre koji će zapravo postajati “AI factories”, tvornice umjetne inteligencije. Kada se gradi podatkovni centar, uzima se u obzir niz čimbenika poput sigurnosti, pa i političke stabilnosti, ali i dostupnosti energije, što će biti još važnije, kazao je Grdić.
Alex de Vries, postdoktorand na VU Amsterdam, pokretač je bloga o digitalnoj održivosti Digiconomist. U izvješću objavljenom ranije ovog mjeseca u časopisu Joule, de Vries je analizirao trendove u korištenju AI energije. Predvidio je da bi trenutna AI tehnologija mogla godišnje potrošiti električne energije koliko i cijela Irska, a to je 29,3 teravat-sati godišnje. Postoji i još konkretnija statistika. Procjenjuje se da treniranje velikog jezičnog modela poput Chat GPT-3, na primjer, koristi nešto manje od 1300 MWh električne energije, otprilike koliko godišnje potroši 130 domova u SAD-u.
POVEZANI ČLANCI:
Streamanje jednog sata na Netflixu zahtijeva oko 0,8 kWh električne energije. To znači da biste morali gledati 1,625.000 sati da biste potrošili istu količinu energije koja je potrebna za treniranje GPT-3. – Moglo bi se reći da jedna interakcija u velikom podatkovnom modelu može potrošiti toliko energije kao da LED žarulja niske svjetline ostane uključena jedan sat, izračunao je de Vries. On tvrdi da bi se trebalo kritički razmišljati o tome koji proizvodi stvarno trebaju integraciju umjetne inteligencije. Na primjer, u de Vriesovu radu procjenjuje se da bi samo troškovi poslužitelja koštali Google 100 milijardi američkih dolara ako bi tražilica uključivala umjetnu inteligenciju u svaku svoju pretragu. Bit će ključno shvatiti da umjetna inteligencija nije čudotvorni lijek i da ima svoja ograničenja, navodi de Vries koji smatra da će na AI otpadati pola posto potrošnje električne energije u svijetu do 2027. godine.