Raport IDC i SAS: biznes ufa GenAI, ale nie dba o jej wiarygodność

Generatywna AI cieszy się dziś największym zaufaniem wśród firm na całym świecie, wyprzedzając tradycyjne modele uczenia maszynowego i nowe podejścia, takie jak agentowa czy kwantowa AI. Najnowszy raport IDC przygotowany dla SAS pokazuje jednak, że wysoki poziom zaufania nie idzie w parze z realnymi inwestycjami w transparentność, etykę i odpowiedzialne zarządzanie technologią.

3 Min
sztuczna inteligencja. AI
źródło: Freepik

Choć generatywnej AI ufa dziś więcej organizacji niż jakiejkolwiek innej technologii sztucznej inteligencji, większość firm nie podejmuje konkretnych kroków, by to zaufanie naprawdę uzasadnić — wynika z raportu Data and AI Impact Report: The Trust Imperative, przygotowanego przez IDC na zlecenie SAS.

Generatywna AI jako domyślny „ulubieniec”

Według badania aż 81 % ankietowanych firm deklaruje użycie generatywnej AI, podczas gdy tradycyjnych modeli uczenia maszynowego używa 66 %, agentowej AI — 52 %, a technologii kwantowej — 30 %. Co więcej, aż 48 % respondentów przyznaje najwyższy poziom zaufania do GenAI, podczas gdy zaufanie do tradycyjnej AI deklaruje tylko 18 %. W środowiskach mniej zaawansowanych technologicznie generatywna AI cieszy się nawet trzykrotnie wyższym zaufaniem niż klasyczne modele.

Ten rozdźwięk — między percepcją a realną odpowiedzialnością — stanowi centralne zagadnienie raportu. Zaufanie organizacji do AI jako takiej deklaruje 78 %, ale tylko 40 % firm faktycznie inwestuje w praktyki podnoszące wiarygodność (transparentność, zarządzanie, etyka).

ROI vs. rzetelność — jak zaangażowanie się opłaca

Raport wskazuje, że organizacje traktujące kwestie zaufania jako kluczowe mają aż o 60 % większą szansę na podwojenie zwrotu z inwestycji w AI. Z kolei mniej dojrzałe podmioty — jeśli w ogóle wdrażają praktyki odpowiedzialnej AI — najczęściej wybierają jedynie generatywne modele, mimo że ich zachowanie bywa bardziej nieprzewidywalne.

To klasyczny dylemat: AI staje się centralną osią operacji, ale fundamenty — dane, zarządzanie, nadzór — pozostają niedomknięte.

Główne bariery technologiczne

Wśród trzech kluczowych wyzwań, które hamują rozwój AI, liderzy wskazują:

1. Nieoptymalne środowiska danych i brak scentralizowanych architektur (49 %).

2. Brak ustandaryzowanych procesów zarządzania danymi (44 %).

3. Niedobór wykwalifikowanych kadrowo specjalistów (41 %).

Dostęp do użytecznych źródeł danych — wskazany przez 58 % respondentów — jest najczęstszą przeszkodą. Ponadto, obawy dotyczące prywatności (62 %), braku transparentności (57 %) i aspektów etycznych (56 %) towarzyszą każdemu wdrożeniu GenAI.

Quantum AI — entuzjazm w cieniu niedojrzałości

Choć technologie kwantowe nadal funkcjonują głównie w fazie badań, prawie 30 % decydentów deklaruje ich znajomość, a 26 % — pełne zaufanie do Quantum AI.([sas.com][1]) To sygnał, że hype wyprzedza praktykę.

Między hype’em a infrastrukturą

Analiza wykazuje geograficzne różnice: kraje o bardziej uregulowanym rynku (jak niektóre państwa w UE) wykazują lepsze wskaźniki rzetelności (Trustworthy AI Index) i skuteczności AI (Impact Index). Tam, gdzie równoważenie zaufania i wiarygodności jest zrozumiane jako strategiczny warunek, skoki efektywności są największe.

Wdrażanie AI bez budowy solidnych fundamentów to ryzykowna strategia z potencjałem krótkoterminowego wzrostu, ale z długofalowym osłabieniem. W środowisku, w którym AI staje się mniej narzędziem wspomagającym, a bardziej kanałem podejmowania kluczowych decyzji — transparentność, etyka i kontrola stają się warunkiem jego trwałego sukcesu.

Udostępnij