W Dolinie Krzemowej rywalizacja o dominację w sektorze sztucznej inteligencji zazwyczaj przypomina wyścig zbrojeń. Jednak w obliczu biurokratycznej presji ze strony Departamentu Obrony (DOD), najwięksi gracze postanowili zewrzeć szeregi. Microsoft oficjalnie poparł wniosek Anthropic o zablokowanie decyzji Pentagonu, która uznała twórcę modelu Claude za „ryzyko dla łańcucha dostaw”.
Pragmatyzm zamiast solidarności
Dla Microsoftu interwencja w sądzie federalnym w San Francisco nie jest jedynie gestem dobrej woli wobec konkurenta. To chłodna kalkulacja biznesowa. Gigant z Redmond zintegrował technologię Anthropic z rozwiązaniami dostarczanymi armii USA. Nagłe odcięcie dostępu do tych modeli postawiłoby pod znakiem zapytania ciągłość kontraktów obronnych i zmusiło inżynierów do kosztownego, pośpiesznego przebudowywania systemów.
Microsoft argumentuje, że Pentagon, dając sobie sześć miesięcy na wycofanie się z technologii Anthropic, zapomniał o analogicznym okresie przejściowym dla zewnętrznych wykonawców. Bez sądowego wstrzymania decyzji (TRO), firmy technologiczne zostaną obarczone nowym, nieprzewidywalnym ryzykiem operacyjnym, które może zdestabilizować ich planowanie biznesowe na lata.
Nowy front w relacjach Big Tech z rządem
Sprawa ta rzuca światło na szerszy problem: napięcie między tempem innowacji a rygorami bezpieczeństwa narodowego. Decyzja DOD o wpisaniu Anthropic na „czarną listę” jest o tyle zaskakująca, że startup ten promuje się jako lider w dziedzinie bezpieczeństwa i etyki AI. Głos Microsoftu, wsparty przez inżynierów z OpenAI i Google, sugeruje, że branża nie zgadza się na arbitralne decyzje urzędników, które mogą zablokować dostęp wojska do najnowocześniejszych narzędzi.
Spór pokazuje, że w sektorze AI sukces techniczny to tylko połowa sukcesu; drugą jest nawigowanie w coraz bardziej złożonym labiryncie regulacji rządowych. Jeśli sąd nie przychyli się do wniosku Anthropic i Microsoftu, precedens ten może uderzyć w każdego dostawcę oprogramowania współpracującego z sektorem publicznym.

