Při operaci americké armády ve Venezuele, jejímž cílem měl být únos prezidenta Nicoláse Madura, se měl objevit i jazykový model Claude od společnosti Anthropic. Jde o další signál, že umělá inteligence už neproniká jen do kanceláří a call center, ale i do vojenských rozhodovacích procesů.
Zpráva spojila nasazení Claudu s partnerstvím Anthropicu a firmy Palantir Technologies, která patří mezi klíčové dodavatele pro americké ministerstvo obrany. Venezuelské ministerstvo obrany v souvislosti s akcí mluvilo o bombardování v Caracasu a o 83 mrtvých.
Anthropic se od násilí distancuje, Pentagon mlčí
Podmínky použití Anthropicu zakazují využití Claudu k násilným účelům, k vývoji zbraní nebo ke sledování. Mluvčí firmy odmítl komentovat, zda byl Claude v operaci skutečně použit, a dodal, že jakékoli využití nástroje musí být v souladu s firemními pravidly.
Americké ministerstvo obrany se k informacím nevyjádřilo. Palantir komentář také odmítl.
Závody ve zbrojení se přesouvají do softwaru
Armády po světě čím dál častěji zapojují AI do svých systémů a procesů. Izraelská armáda nasazovala drony s autonomními schopnostmi v Gaze a využívala AI i pro rozšiřování databáze cílů, americká armáda v posledních letech použila AI při cílení úderů v Iráku a Sýrii.
Kritici dlouhodobě varují, že počítačové systémy mohou vést k chybám při určování cílů a k tomu, že rozhodnutí o životě a smrti získá nebezpečně automatický charakter. Šéf Anthropicu Dario Amodei už dřív volal po regulaci, která má omezit škody spojené s nasazováním AI, a vyjadřoval opatrnost vůči autonomním smrtícím operacím a domácímu dohledu.
Napětí mezi opatrnějším přístupem a tlakem na vojenské využití AI naznačil i americký ministr války Pete Hegseth, když v lednu řekl, že resort nebude „zaměstnávat AI modely, které vám nedovolí vést války“. Pentagon zároveň v lednu oznámil spolupráci s xAI Elona Muska a využívá i upravenou verzi Gemini od Googlu a systémy od OpenAI pro podporu výzkumu.

