Një përplasje e pazakontë mes një prej laboratorëve më të mëdhenj amerikanë të inteligjencës artificiale dhe Departamentit të Mbrojtjes ka dalë në sipërfaqe, duke zbuluar tensionet e thella mbi përdorimin ushtarak të AI-së. Sipas një raportimi të detajuar të Financial Times, Sekretari amerikan i Mbrojtjes, Pete Hegseth, i ka dhënë një ultimatum kompanisë Anthropic: ose të pranojë që teknologjia e saj të përdoret në të gjitha aplikimet e ligjshme ushtarake, ose të përjashtohet nga zinxhiri i furnizimit të Pentagonit.

Sipas gazetës britanike, CEO i kompanisë, Dario Amodei, u thirr në Uashington për një takim urgjent. Bisedimet rezultuan të tensionuara. Pentagoni kërkon akses të plotë dhe pa kufizime në modelet e AI-së së kompanisë, përfshirë përdorime të klasifikuara, operacione taktike dhe misione vdekjeprurëse – edhe në raste ku nuk ka kontroll të drejtpërdrejtë njerëzor.
Anthropic ka refuzuar t’i japë akses të pakufizuar teknologjisë së saj për përdorime të tilla, duke shprehur shqetësime për misione “pa njeri në qark” (no human in the loop) dhe për përdorimin e AI-së në survejim masiv brenda territorit amerikan, edhe nëse këto do të ishin teknikisht të ligjshme.

Kërcënimi me “Defense Production Act”
Sipas burimeve të cituara nga Financial Times, Hegseth ka paralajmëruar se nëse kompania nuk “hipën në bord”, do të përdoret Defense Production Act, një ligj i epokës së Luftës së Ftohtë që i jep Presidentit kompetenca për të detyruar industrinë private të vërë kapacitetet e saj në shërbim të mbrojtjes kombëtare.

Një hap i tillë do të ishte paradoksal: nga njëra anë do të nënkuptonte se teknologjia e Anthropic është kritike për operacionet ushtarake; nga ana tjetër, përjashtimi i saj nga zinxhiri i furnizimit është një masë ekstreme, zakonisht e rezervuar për kompani të lidhura me kundërshtarë të huaj.

Përplasja politike në sfond

Raporti i Financial Times e vendos konfliktin edhe në një kontekst më të gjerë politik. Anthropic ka kërkuar rregullim më të fortë të inteligjencës artificiale, ndërsa administrata e Donald Trump ka promovuar një qasje më të lehtë rregullatore. I dërguari për AI në Shtëpinë e Bardhë, David Sacks, e ka akuzuar publikisht kompaninë për strategji “kapjeje rregullatore” përmes frikësimit.
Në të njëjtën kohë, Pentagoni ka nisur bisedime me kompani të tjera si Google, OpenAI dhe xAI, për të integruar modelet e tyre në sistemet e klasifikuara ushtarake. Sipas burimeve, modeli Grok i xAI është “gati” për përdorim në mjedise të klasifikuara.

Kontrata 200 milionë dollarë dhe misioni ndaj Maduro-s

Anthropic ka një kontratë prej 200 milionë dollarësh me Departamentin e Mbrojtjes dhe modeli i saj Claude ka qenë deri vonë i vetmi që përdorej në misione të klasifikuara, falë partneritetit me Palantir Technologies.
Sipas burimeve të cituara nga Financial Times, modeli Claude është përdorur edhe në operacionin amerikan për kapjen e liderit venezuelian Nicolás Maduro në janar. Pikërisht mënyra e përdorimit të modelit në atë mision ka ngritur pikëpyetje brenda vetë kompanisë.

Një vijë ndarëse për AI-në ushtarake

Pentagoni ka deklaruar në strategjinë e fundit për AI se “lufta e mundësuar nga inteligjenca artificiale” do të riformësojë karakterin e çështjeve ushtarake në dekadën e ardhshme. Hegseth ka theksuar se SHBA duhet të ruajë avantazhin ndaj kundërshtarëve të huaj dhe ta bëjë ushtrinë “më vdekjeprurëse dhe më efikase”.

Nga ana tjetër, Anthropic argumenton se modelet aktuale të AI-së nuk janë mjaftueshëm të besueshme për t’u përdorur në misione vdekjeprurëse pa kontroll njerëzor dhe kërkon rregulla më të qarta për survejimin masiv.
Përplasja mes Pentagonit dhe një prej laboratorëve kryesorë të AI-së në SHBA shënon një moment kritik: a do të jetë inteligjenca artificiale një mjet pa kufij në arsenalin ushtarak, apo do të vendosen barriera etike e teknike përpara se të kalojë në fushën e zjarrit? Sipas Financial Times, vendimi i ditëve në vijim mund të përcaktojë jo vetëm fatin e një kontrate 200 milionë dollarëshe, por edhe drejtimin strategjik të përdorimit ushtarak të AI-së amerikane.