U napadu na skrovište venezuelanskog predsjednika Nicolasa Madura i njegovom hvatanju korišten je Claude, veliki jezični model tvrtke Anthropic. Koliko se zna, ovo je prvi puta da je ova vrsta umjetne inteligencije korištena u nekom izravnom vojnom djelovanju, barem što se Amerikanaca tiče. Nije poznato kako je Claude korišten u ovoj vojnoj operaciji.
Ono što se zna jest da Pentagon Anthropicovu umjetnu inteligenciju koristi kroz suradnju Anthropica i tvrtke Palantir koje je vlasnik Peter Thiel, osnivač PayPala, a koja ima ugovore s raznim američkim sigurnosnim i obrambenim agencijama. U napadu na Madurovo sklonište poginulo je, prema tvrdnjama Venezuelanaca, 83 ljudi. Claude ima mogućnosti da se primjeni na brojne potrebe, od obrade PDF dokumenata pa sve do upravljanja dronovima. No, uvjet je Anthropica da Pentagon koristi Claude taj da se taj njihov model ne koristi u vojne svrhe, niti za razvoj naoružanja pa čak niti za provođenje izviđanja.
Druge tvrtke koje imaju veliki jezični model, poput OpenAI ili xAI Elona Muska, takvo nešto ne uvjetuju, zna se da Pentagon u istraživanjima koristi OpenAI-jev Chat GPT i Googleov Gemini koji su u tu svrhu modificirani. Ali, Pete Hegseth, američki ministar obrane, ne prihvaća Anthropicov uvjet. Najprije je rekao da Pentagon neće surađivati s tvrtkama koje ne dopuštaju primjenu njihove umjetne inteligencije u ratne svrhe, odnosno, kako kažu, 'sve zakonite primjene', a sada planira Anthropic staviti na crnu listu ako to ne dopusti za svoje alate, odnosno Claude. Pentagon je u izjavi naveo da američka vlada "preispituje" svoj odnos s Anthropicom, proizvođačem Claudeovog velikog jezičnog modela.
- Odnos Ministarstva rata s Anthropicom se preispituje. Naša nacija zahtijeva da naši partneri budu spremni pomoći našim borcima da pobijede u bilo kojoj borbi. U konačnici, radi se o našim vojnicima i sigurnosti američkog naroda - rekao je glavni glasnogovornik Pentagona Sean Parnelli. Visoki dužnosnik rekao je da Pentagon počinje promatrati Anthropic kao rizik za lanac opskrbe te da bi mogao zahtijevati od svih dobavljača i izvođača radova da potvrde da ne koriste nijedan od modela te tvrtke.
U priči koju je prvi donio američki portal Axios, navodi se kako to znači da sve one tvrtke koje žele raditi ili rade s Anthropicom, ne mogu istodobno raditi i s Pentagonom. Jasno je da to znači ogromne materijalne štete za tvrtku koja je razvila Claude za koji se drži kako je jedan od najboljih velikih jezičnih modela razvijenih na Zapadu. Sam gubitak ugovora s Pentagonom bio bi manji financijski udarac, s obzirom na to da se vrijednost ugovora procjenjuje na čak 200 milijuna dolara. U Anthropicu su navodili da sada ostvaruje prihod od 14 milijardi dolara godišnje. U Axiosu navode kako je problem u Anthropicovim pregovorima o tome kako se njihovi proizvodi mogu koristiti povlačenje jasne linije između korištenja za masovno špijuniranje Amerikanaca ili za razvoj oružja koje se aktivira bez ljudskog sudjelovanja.
U izvješću se navodi da je vlada zabrinuta zbog "sivih zona", kao i zbog mogućnosti pregovaranja o pojedinačnim slučajevima upotrebe. Glasnogovornik Anthropica citiran je kako kaže da postoje "stroga ograničenja oko potpuno autonomnog oružja i masovnog domaćeg nadzora", ali je porekao da je prigovorio operaciji u Venezueli. Anthropic sada vrijedi 380 milijardi te svi ulagači čekaju na njegovu inicijalnu ponudu dionica koja bi doista mogla dati novi zamah tehnološkom sektoru koji posljednjih par tjedan prolazi korekciju cijena svojih dionica. Dva se pitanja odmah nameću. Jedno je kako će na eventualnu takvu odluku reagirati Palantir koji očito Claude intenzivno koristi a u tom slučaju to više ne bi mogao. A drugo je što je to u tom modelu da je tako efikasan u vojnoj primjeni. Iz Anthropica su ranije govorili kako je Claude postao prvi i jedini model integriran u tijekove rada misija na klasificiranim mrežama, i to upravo kroz partnerstvo s Palantirom. Drugi veliki pružatelji modela također su surađivali s vladom, ali uglavnom na slučajevima upotrebe koji nisu klasificirani. Dakle, Anthropic nije samo prodavao API pristup u apstraktnom smislu. Claude je bio stavljen u okruženja gdje su ulozi stvarni, podaci nisu javni, a ljudi koji ga koriste ne provode povremene eksperimente. Onda je tu i još jedna stvar. Navodno je visoki dužnosnik Pentagon opisao Anthropic kao najideološkiji od svih vodećih laboratorija u kojima se razvija umjetna inteligencija, kao upozorenje da posljedična ograničenja politike korištenja njegovih proizvoda stvaraju sive zone. Prema takvom razmišljanju, ako ste zapovjednik ili operater, ne želite se naći u situaciji u kojoj alat na koji se oslanjate iznenada odbija jer odlučuje da je zahtjev preblizu granice politike tvrtke. Sekunde su važne u stvarnim misijama, a Pentagon ne želi se pitati hoće li pravilnik dobavljača nadjačati zakonitu naredbu u datom trenutku. I blokirati uputu. Na kraju je tu najbizarnija stvar. Da se uopće nije objavila informacija o tome da je američka vojska u napadu na Venezuelu koristila Anthropicov Claude, do ovakve situacije ne bi niti došlo.