Claude na czarnej liście USA. Anthropic idzie do sądu przeciwko Pentagonowi

Wytaczając proces Pentagonowi, Anthropic rzuca wyzwanie fundamentom współpracy Doliny Krzemowej z wojskiem, stawiając etyczne „barierki” swojej sztucznej inteligencji ponad żądaniami Departamentu Obrony. Ta eskalacja prawna rozstrzygnie, czy twórcy przełomowych modeli zachowają kontrolę nad ich ostatecznym przeznaczeniem, czy też zostaną zmuszeni do uległości wobec priorytetów bezpieczeństwa narodowego.

2 Min
Stany zjednoczone, USA

Anthropic, laboratorium sztucznej inteligencji pozycjonujące się jako „bezpieczna” alternatywa dla gigantów, przeszło do bezprecedensowej ofensywy prawnej przeciwko rządowi federalnemu. Pozwy złożone w Kalifornii i Dystrykcie Kolumbii mają na celu zablokowanie decyzji Pentagonu o wpisaniu firmy na czarną listę bezpieczeństwa narodowego. To starcie nie jest jedynie sporem o kontrakty zbrojeniowe; to fundamentalny test tego, kto ostatecznie kontroluje „mózgi” sztucznej inteligencji — Dolina Krzemowa czy Waszyngton.

Konflikt eskalował, gdy Sekretarz Obrony Pete Hegseth nałożył na Anthropic oznaczenie ryzyka w łańcuchu dostaw. Powodem była odmowa Dario Amodeiego, dyrektora generalnego Anthropic, na usunięcie etycznych „barierek” ograniczających wykorzystanie Claude’a w systemach broni autonomicznej oraz do inwigilacji krajowej. Pentagon stoi na stanowisku, że o sposobie obrony kraju decyduje prawo, a nie prywatne korporacje, i domaga się pełnej elastyczności w operacjach wojskowych. Z kolei Anthropic argumentuje, że obecna technologia jest zbyt zawodna, by powierzać jej decyzje o życiu i śmierci, a wymuszanie jej użycia narusza wolność słowa i zasady rzetelnego procesu.

Ta batalia ma natychmiastowe konsekwencje. Choć Amodei uspokaja, że restrykcje mają wąski zakres, rynkowa niepewność jest widoczna. Prezydencki nakaz wstrzymania użycia Claude’a w całej administracji rządowej uderza w wizerunek firmy jako stabilnego partnera. Jak zauważa Dan Ives z Wedbush, sektor przedsiębiorstw może tymczasowo „odłożyć ołówki” w kwestii nowych wdrożeń technologii Anthropic, czekając na klarowność prawną.

Podczas gdy Anthropic walczy w sądach, konkurencja nie marnuje czasu. OpenAI szybko zadeklarowało zbieżność swoich zasad z potrzebami Departamentu Obrony, przejmując inicjatywę w kontaktach z rządem. Solidarność z Anthropic wyrazili jednak badacze z Google i OpenAI, ostrzegając w opinii amicus curiae, że karanie firm za dbałość o bezpieczeństwo stłumi innowacje i uciszy krytyczną debatę w branży. Wynik tego procesu określi nową architekturę relacji między państwem a twórcami AI, definiując, czy etyka modelu może być przedmiotem negocjacji z rządem.

Udostępnij