Šef američke tvrtke OpenAI, Sam Altman, priznao je zaposlenicima da kompanija ne može kontrolirati kako Pentagon koristi njihove proizvode umjetne inteligencije u vojnoj praksi. Altman je u obraćanju istaknuo da OpenAI postavlja tehničke zaštitne mjere, ali da nakon potpisivanja ugovora kontrolu nad operativnim odlukama preuzima američka vojska, a ne tehnološka tvrtka, prenosi Guardian.
Altman je, prema izvještajima, zaposlenicima poručio kako OpenAI “ne donosi operativne odluke” o tome gdje i kako se njihova tehnologija koristi. Na ovo je posebno reagiralo osoblje zabrinuto da bi AI mogao biti uključen u ratne odluke ili nadzor bez odgovarajuće etičke kontrole.
Ova rasprava uslijedila je nakon što je Pentagon ušao u spor s konkurentskom tvrtkom Anthropic, koja je odbila sklopiti ugovor jer se bojala da bi njezin model mogao biti upotrijebljen za masovno nadgledanje ili autonomno oružje bez ljudske kontrole. Zbog toga je njezin šef označen kao “rizik za opskrbni lanac”, što je neuobičajena i potencijalno štetna klasifikacija, a potaknulo je i velike kontroverze u tehnološkoj zajednici.
Na isti dan kad je Pentagon stigao do sporazuma s OpenAI-em, uslijedila je oštra kritika javnosti i zaposlenika zbog mogućeg prelaska etičkih granica. Altman je kasnije priznao da je ugovor objavljen “preuranjeno i nejasno”, što je ostavilo dojam da je kompanija postupila “prilikaški i nemarno”.
U odgovoru na kritike, Altman je najavio da će sporazum s Pentagonom biti izmijenjen kako bi se jasno zabranila namjenska uporaba AI-ja za nadzor građana SAD-a te je, kako tvrdi, osigurao da modeli neće biti automatski korišteni od strane obavještajnih agencija bez dodatnih ugovornih odredbi. Ovaj slučaj dodatno je zaoštrio debate o ulozi umjetne inteligencije u ratu, etici tehnoloških tvrtki i granicama suradnje s vojnim institucijama, gdje sve veći broj stručnjaka i zaposlenika poziva na strože standarde i transparentnost.
Andrija Jarak komentirao zahtjev Srđana Mlađana da svjedoči