Anthropic, laboratorium sztucznej inteligencji pozycjonujące się jako „bezpieczna” alternatywa dla gigantów, przeszło do bezprecedensowej ofensywy prawnej przeciwko rządowi federalnemu. Pozwy złożone w Kalifornii i Dystrykcie Kolumbii mają na celu zablokowanie decyzji Pentagonu o wpisaniu firmy na czarną listę bezpieczeństwa narodowego. To starcie nie jest jedynie sporem o kontrakty zbrojeniowe; to fundamentalny test tego, kto ostatecznie kontroluje „mózgi” sztucznej inteligencji — Dolina Krzemowa czy Waszyngton.
Konflikt eskalował, gdy Sekretarz Obrony Pete Hegseth nałożył na Anthropic oznaczenie ryzyka w łańcuchu dostaw. Powodem była odmowa Dario Amodeiego, dyrektora generalnego Anthropic, na usunięcie etycznych „barierek” ograniczających wykorzystanie Claude’a w systemach broni autonomicznej oraz do inwigilacji krajowej. Pentagon stoi na stanowisku, że o sposobie obrony kraju decyduje prawo, a nie prywatne korporacje, i domaga się pełnej elastyczności w operacjach wojskowych. Z kolei Anthropic argumentuje, że obecna technologia jest zbyt zawodna, by powierzać jej decyzje o życiu i śmierci, a wymuszanie jej użycia narusza wolność słowa i zasady rzetelnego procesu.
Ta batalia ma natychmiastowe konsekwencje. Choć Amodei uspokaja, że restrykcje mają wąski zakres, rynkowa niepewność jest widoczna. Prezydencki nakaz wstrzymania użycia Claude’a w całej administracji rządowej uderza w wizerunek firmy jako stabilnego partnera. Jak zauważa Dan Ives z Wedbush, sektor przedsiębiorstw może tymczasowo „odłożyć ołówki” w kwestii nowych wdrożeń technologii Anthropic, czekając na klarowność prawną.
Podczas gdy Anthropic walczy w sądach, konkurencja nie marnuje czasu. OpenAI szybko zadeklarowało zbieżność swoich zasad z potrzebami Departamentu Obrony, przejmując inicjatywę w kontaktach z rządem. Solidarność z Anthropic wyrazili jednak badacze z Google i OpenAI, ostrzegając w opinii amicus curiae, że karanie firm za dbałość o bezpieczeństwo stłumi innowacje i uciszy krytyczną debatę w branży. Wynik tego procesu określi nową architekturę relacji między państwem a twórcami AI, definiując, czy etyka modelu może być przedmiotem negocjacji z rządem.
