Po měsících jednání zkrachovalo uzavření dohody mezi americkou technologickou společností Anthropic a Pentagonem. Firma vyvíjecí umělou inteligenci (AI) požadovala v souvislosti s plným využíváním jejího modelu AI Claude o dvě výjimky. Systém nebude sloužit k hromadnému sledování lidí a k řízení plně autonomních zbraní.
Důvody odmítnutí spočívají podle firmy v nedostatečné spolehlivosti i u těch nejpokročilejších modelů, a tudíž neposkytují záruky pro spolehlivé použití v plně autonomních zbraních. Došlo by proto k ohrožení jak vojáků, tak i civilistů. Dále se firma domnívá, že hromadné sledování Američanů představuje porušení základních práv.
Ministr obrany Hegseth trval na plném přístupu ke všem systémům bez jakýchkoliv pojistek proti zneužití. Poté, co Anthropic definitivně odmítl, označil Hegseth firmu za „riziko pro dodavatelský řetězec“ a rozhodl o zrušení smlouvy v hodnotě až 200 milionů dolarů. Oznámil také, že nařídí všem dodavatelům, aby přestali během půl roku používat systém Claude. Anthropic vyjádřil zklamání, protože od června 2024 podporuje americké vojáky a má úmysl v tom pokračovat. Rozhodnutí považuje za právně neobhajitelné. Nešlo totiž jen o zrušení kontraktu, ale o označení za riziko, které jinak vláda používá vůči společnostem ze znepřátelných zemí. Anthropic se nenechá vyděsit zastrašováním a nezmění kvůli tomu svůj postoj. Následně firma oznámila, že se obrátí na soud.
AI lze snadno zneužít
Pro Daria Amodeie, spoluzakladatele a generálního ředitele Anthropicu, jsou etické aspekty rozvoje AI velmi důležité. V eseji Machines of Loving Grace (odkaz na báseň All Watched over by Machines of Loving Grace – Všichni pod dohledem strojů s laskavou milostí) se Amodei zamýšlí nad rozvojem AI. Uvědomuje si, že je tento mocný nástroj lehce zneužitelný autoritáři, a přemýšlí, jak ochránit demokracii. Nedělá si iluze ani o naší společnosti a píše, že lidé stále představují hrozbu jeden pro druhého. V potenciálu AI jsou propaganda a dohled, dva hlavní nástroje v arzenálu autoritářů, mnohem účinnější než dosud. Vyžaduje to od nás proto velké odhodlání, aby se AI nedala zneužít „zlými hochy“ (bad guys).
Pro demokratické země je důležité, aby dokázaly spolupracovat a spojily své síly k získání trvalé převahy v AI. Bude to vyžadovat zejména úzkou spolupráci mezi soukromými AI společnostmi a demokratickými vládami a jejich moudrá rozhodnutí. Amodei věří, že je možné bojovat za takovou podobu AI, která bude garantem svobody, individuálních práv a rovnosti před zákonem.
Amodei se současně věnuje i výzkumu v oblasti AI, a má proto hluboký vhled do jejího potenciálu a rizik. Plně autonomní zbraně jsou vojenské systémy provádějící operace bez lidského zásahu. Pomocí radarů, kamer a sofistikovaného softwaru dokážou samostatně mapovat prostředí, identifikovat hrozby a zahájit útok. U plně autonomních systémů činí konečná rozhodnutí umělá inteligence. V nedávném výzkumu se pokročilé systémy AI rozhodly použít jaderné zbraně v 95 % případů, což je více než znepokojivé.
Svatý stolec apeluje na morální úsudek a etické rozhodování
Na etické problémy autonomních zbraňových systémů upozorňuje Vatikán opakovaně. V srpnu 2024 zdůraznil arcibiskup Ettore Balestrero, stálý pozorovatel Svatého stolce při OSN, na nezbytnou naléhavost zajištění pevného, právně závazného nástroje zakazujícího používání smrtících autonomních zbraní a přijetí moratoria na jejich vývoj a využívání. Podobné varování před autonomními zbraněmi zaznělo koncem února na ženevské Konferenci o odzbrojení z úst vatikánského reprezentanta Mons. Pacha. Při jejich použití se „vytrácí jedinečná lidská schopnost morálního úsudku a etického rozhodování a stejně tak i břemeno odpovědnosti, což nebezpečně snižuje práh konfliktu.“
Nebezpečí spojené s používáním autonomních zbraní zmiňuje rovněž dokument Antiqua et Nova (Nóta o vztahu mezi umělou a lidskou inteligencí). Odkazuje přitom na opakovaná varování papeže Františka. Používání těchto zbraní kromě již zmíněných aspektů vede také k oslabenému vnímání devastace způsobené autonomními zbraněmi. Usnadňují vedení války a oslabují tak princip, že válka by měla být krajním řešením v případě legitimní obrany. „Žádný stroj by nikdy neměl rozhodovat o tom, zda vezme život lidské bytosti,“ apeloval papež František na zasedání v Ženevě v roce 2024.
Prezident Trump označil na sociální síti Truth Social rozhodnutí Anthropicu za „zbabělý čin korporátního signalizování ctnosti,“. Nedůvěru firmy, která si zakládá na etických standardech, lze snadno pochopit. Současný konflikt USA s Íránem, zahájený jako preventivní úder bez předložení důkazů o bezprostředním ohrožení, totiž nedává mnoho nadějí, že by Američané brali mezinárodní právo vážně.
Skutečnost, že k útoku došlo uprostřed probíhajících jednání, jen potvrzuje obavy z nepředvídatelnosti takového postupu. Ostatně sám Trump v nedávném rozhovoru pro The New York Times prohlásil, že mezinárodní právo nepotřebuje a jediným limitem je pro něj jeho vlastní morálka. Tyto postoje nedávají vůbec žádnou záruku proti zneužití AI ve zbraňových systémech a představují další nejistotu pro budoucnost.