
Mjeti i inteligjencës artificiale i kompanisë Anthropic, “Claude”, u përdor në operacionin e ushtrisë amerikane për të kapur ish-presidentin venezuelian Nicolas Maduro, duke nënvizuar se si modelet e inteligjencës artificiale po fitojnë terren në Pentagon, sipas njerëzve që janë të njohur me çështjen.
Misioni për të kapur Maduron dhe gruan e tij përfshinte bombardimin e disa vendeve në Karakas muajin e kaluar. Udhëzimet e përdorimit të Anthropic ndalojnë që “Claude” të përdoret për të mundësuar dhunën, për të zhvilluar armë ose për të kryer mbikëqyrje.
“Ne nuk mund të komentojmë nëse Claude, ose ndonjë model tjetër i AI, është përdorur për ndonjë operacion specifik, të klasifikuar apo tjetër,” tha një zëdhënës i Anthropic.
“Çdo përdorim i Claude, qoftë në sektorin privat apo në gjithë qeverinë, kërkohet të jetë në përputhje me politikat tona të përdorimit, të cilat qeverisin se si mund të vendoset Claude. Ne punojmë ngushtë me partnerët tanë për të siguruar përputhshmërinë.”
Departamenti i Mbrojtjes refuzoi të komentonte.
Vendosja e “Claude” ndodhi përmes partneritetit të Anthropic me kompaninë e të dhënave Palantir Technologies, mjetet e së cilës përdoren zakonisht nga Departamenti i Mbrojtjes dhe zbatimi i ligjit federal, thanë njerëzit. Shqetësimet e Anthropic rreth asaj se si “Claude” mund të përdoret nga Pentagoni i kanë shtyrë zyrtarët e administratës të konsiderojnë anulimin e kontratës së tij me vlerë deri në 200 milionë dollarë, raportoi më parë The Wall Street Journal. Palantir nuk iu përgjigj menjëherë një kërkese për koment.
Anthropic ishte zhvilluesi i parë i modelit AI që u përdor në operacione të klasifikuara nga Departamenti i Mbrojtjes. Është e mundur që mjete të tjera të inteligjencës artificiale të jenë përdorur në operacionin e Venezuelës për detyra të paklasifikuara. Mjetet mund të përdoren për çdo gjë, nga përmbledhja e dokumenteve deri te kontrolli i dronëve autonomë.
Adoptimi nga ushtria shihet si një shtysë kyçe për kompanitë e AI që konkurrojnë për legjitimitet dhe kërkojnë të përmbushin vlerësimet e tyre kolosale nga investitorët.
Drejtori Ekzekutiv i Anthropic, Dario Amodei dhe drejtues të tjerë ekzekutivë janë marrë publikisht me fuqinë e modeleve të tyre dhe rreziqet që ato mund t’i paraqesin shoqërisë. Amodei është shkëputur nga shumë drejtues të tjerë të industrisë duke bërë thirrje për rregullim dhe kufizime më të mëdha për të parandaluar dëmet nga inteligjenca artificiale. Kompania e përqendruar te siguria dhe të tjera në industri kanë humbur punonjës të cilët i kanë përshkruar ato si kompani që i japin përparësi rritjes mbi zhvillimin e përgjegjshëm të teknologjisë.
Në një takim të janarit që njoftonte se Pentagoni do punonte me xAI, Sekretari i Mbrojtjes Pete Hegseth tha se agjencia nuk do “përdorë modele AI që nuk lejojnë të luftosh luftëra,” një koment që i referohej diskutimeve që zyrtarët e administratës kanë pasur me Anthropic, raportoi Wall Street Journal.
Kontrata prej 200 milionë dollarësh iu dha Anthropic verën e kaluar. Amodei ka shprehur publikisht shqetësim për përdorimin e AI në operacione autonome vdekjeprurëse dhe mbikëqyrje të brendshme, dy pikat kryesore të mosmarrëveshjes në negociatat e saj aktuale të kontratës me Pentagonin, sipas njerëzve të njohur me çështjen.
Kufizimet kanë përshkallëzuar betejën e kompanisë me administratën Trump, e cila përfshin akuza se Anthropic po minon strategjinë e AI me rregullim të ulët të Shtëpisë së Bardhë duke bërë thirrje për më shumë kufizime dhe limite në eksportet e çipave të AI.
Amodei dhe bashkëthemeluesit e tjerë të Anthropic kanë punuar më parë në OpenAI, e cila së fundmi iu bashkua Gemini-t të Google në një platformë AI për personelin ushtarak të përdorur nga rreth tre milionë njerëz. Kompania dhe Departamenti i Mbrojtjes thanë se versioni i personalizuar i ChatGPT do të përdoret për analizimin e dokumenteve, gjenerimin e raporteve dhe mbështetjen e kërkimit.