Pentagon podobno na poważnie rozważa zerwanie podpisanego z Anthropic kontraktu, opiewającego na robiącą wrażenie kwotę 200 milionów dolarów. Powodem jest opór przedsiębiorstwa przed wykorzystaniem jego sztucznej inteligencji do „masowej inwigilacji Amerykanów i produkcji autonomicznej broni”. Firmie zdecydowanie nie podoba się to, w jaki sposób i do jakich zadań rządowi pracownicy wykorzystują Claude, do którego dostęp został im przyznany na mocy porozumienia z Palantir z 2024 roku.

Departament Obrony Stanów Zjednoczonych (jakiś czas temu przemianowany przez Trumpa na Departament Wojny) wykorzystał Claude, model AI ze stajni Anthropic, w trakcie rajdu na Wenezuelę i akcji mającej na celu uprowadzenie Nicolása Maduro. Do wspomnianego narzędzia pracownicy federalni uzyskali dostęp za pośrednictwem podpisanego w 2024 r. kontraktu z Palantir. Na mocy umowy sztuczna inteligencja znalazła zastosowanie w podejmowanych przez amerykański rząd działaniach, niemniej wspomniana powyżej akcja wzbudziła podobno sporo zastrzeżeń ze strony Anthropic. Firma zwróciła się do Palantir z prośbą o wyjaśnienia, niemniej publice przekazano, iż są to jedynie „rutynowe dyskusje z partnerami z branży na tematy ściśle techniczne”. W międzyczasie Pentagon stwierdził, że „nasz naród wymaga, aby nasi partnerzy byli gotowi pomóc naszym żołnierzom wygrać każdą walkę”.
Jako że Anthropic zdecydowanie nie w smak jest zdjęcie ograniczeń nałożonych na Claude i zezwolenie na wykorzystanie narzędzia do działań militarnych, przyszłość zawartego z Pentagonem kontraktu znalazła się pod znakiem zapytania. Agencja nalega na to, aby producenci sztucznej inteligencji oddali jej do dyspozycji swoją technologię, która to, wedle zapewnień, zostanie wykorzystana do realizacji „zgodnych z prawem celów”. Jak podaje redakcja Axios, owe cele uwzględniają m.in. gromadzenie informacji wywiadowczych, rozwój broni, w tym tej w pełni autonomicznej, a także prowadzenie operacji bezpośrednio na polu walki. Anthropic na te warunki nie przystało, w związku z czym korporacja wystawiła się na atak.
Dotychczasowe rozmowy Anthropic z Departamentem Obrony koncentrowały się na konkretnym zestawie pytań dotyczących zasad użytkowania, a mianowicie na naszych ścisłych ograniczeniach dotyczących w pełni autonomicznej broni i masowej inwigilacji krajowej, z których żadne nie odnosi się do bieżących działań.
Starszy stażem urzędnik administracyjny resortu przekazał, że na obecnym etapie „każde rozwiązanie wchodzi w grę”, wliczając w to anulowanie wycenionej na 200 milionów dolarów umowy zawiązanej z producentem Claude. Ta jednak pozostanie w życiu do momentu, aż Departament Obrony nie znajdzie alternatywy dla Anthropic i jego dzieła.
Biorąc pod uwagę, że wartości Anthropic zdają się stać w sprzeczności z tymi wyznawanymi przez Pentagon, ten już rozpoczął negocjacje dotyczące potencjalnego wykorzystania innych modeli sztucznej inteligencji. Na celowniku służb federalnych znalazły się m.in. OpenAI i jego ChatGPT, Google ze swoim Gemini, a nawet xAI (w zasadzie będące już częścią SpaceX) wraz z Grokiem. Jak podkreślono, chętne do nawiązania współpracy przedsiębiorstwa musiałaby wyrazić zgodę na wykorzystanie ich rozwiązań przez wojsko.
0 komentarzy