Trump wyklucza Anthropic z kontraktów. Nowe zasady AI w USA

Nagłe wykluczenie Anthropic z zamówień rządowych i uznanie firmy za „ryzyko dla łańcucha dostaw” kończy okres pobłażliwości Waszyngtonu wobec etycznych blokad nakładanych na sztuczną inteligencję przez jej twórców.

2 Min
Anthropic, Claude
źródło: Anthropic

W relacjach między Doliną Krzemową a Pentagonem nastąpiło gwałtowne ochłodzenie, które może przedefiniować model biznesowy czołowych laboratoriów sztucznej inteligencji. Administracja Trumpa, dążąc do pełnej swobody operacyjnej w wykorzystaniu nowych technologii, wprowadza rygorystyczne wytyczne, które stawiają pod znakiem zapytania autonomię firm takich jak Anthropic.

Decyzja Administracji Usług Ogólnych o rozwiązaniu kontraktów z Anthropic i określenie spółki mianem „ryzyka dla łańcucha dostaw” to sygnał, że rząd nie będzie tolerował kompromisów w kwestii kontroli nad narzędziami AI. Punktem zapalnym okazały się wbudowane w modele mechanizmy bezpieczeństwa, które zdaniem Departamentu Obrony paraliżują ich użyteczność militarną i cywilną.

Kluczowym elementem nowej strategii jest wymóg udzielenia rządowi USA nieodwołalnej licencji na korzystanie z systemów AI do „każdego zgodnego z prawem celu”. Nowe wytyczne GSA idą dalej, uderzając w samą strukturę algorytmów. Firmy starające się o kontrakty federalne nie mogą „celowo kodować ideologicznych osądów” w wynikach generowanych przez systemy. To bezpośrednie uderzenie w mechanizmy filtrowania treści, które administracja postrzega jako formę cenzury lub stronniczości.

Obecna sytuacja tworzy wyrazisty podział na rynku. Firmy, które postawią na pełną elastyczność i „neutralność” wymaganą przez Waszyngton, zyskają uprzywilejowany dostęp do sektora publicznego. Pozostałe, kładące nacisk na restrykcyjne bariery bezpieczeństwa, mogą zostać wypchnięte z najważniejszego rynku zamówień na świecie, co drastycznie zmieni ich wyceny i perspektywy wzrostu.

Udostępnij