Choć generatywnej AI ufa dziś więcej organizacji niż jakiejkolwiek innej technologii sztucznej inteligencji, większość firm nie podejmuje konkretnych kroków, by to zaufanie naprawdę uzasadnić — wynika z raportu Data and AI Impact Report: The Trust Imperative, przygotowanego przez IDC na zlecenie SAS.
Generatywna AI jako domyślny „ulubieniec”
Według badania aż 81 % ankietowanych firm deklaruje użycie generatywnej AI, podczas gdy tradycyjnych modeli uczenia maszynowego używa 66 %, agentowej AI — 52 %, a technologii kwantowej — 30 %. Co więcej, aż 48 % respondentów przyznaje najwyższy poziom zaufania do GenAI, podczas gdy zaufanie do tradycyjnej AI deklaruje tylko 18 %. W środowiskach mniej zaawansowanych technologicznie generatywna AI cieszy się nawet trzykrotnie wyższym zaufaniem niż klasyczne modele.
Ten rozdźwięk — między percepcją a realną odpowiedzialnością — stanowi centralne zagadnienie raportu. Zaufanie organizacji do AI jako takiej deklaruje 78 %, ale tylko 40 % firm faktycznie inwestuje w praktyki podnoszące wiarygodność (transparentność, zarządzanie, etyka).
ROI vs. rzetelność — jak zaangażowanie się opłaca
Raport wskazuje, że organizacje traktujące kwestie zaufania jako kluczowe mają aż o 60 % większą szansę na podwojenie zwrotu z inwestycji w AI. Z kolei mniej dojrzałe podmioty — jeśli w ogóle wdrażają praktyki odpowiedzialnej AI — najczęściej wybierają jedynie generatywne modele, mimo że ich zachowanie bywa bardziej nieprzewidywalne.
To klasyczny dylemat: AI staje się centralną osią operacji, ale fundamenty — dane, zarządzanie, nadzór — pozostają niedomknięte.
Główne bariery technologiczne
Wśród trzech kluczowych wyzwań, które hamują rozwój AI, liderzy wskazują:
1. Nieoptymalne środowiska danych i brak scentralizowanych architektur (49 %).
2. Brak ustandaryzowanych procesów zarządzania danymi (44 %).
3. Niedobór wykwalifikowanych kadrowo specjalistów (41 %).
Dostęp do użytecznych źródeł danych — wskazany przez 58 % respondentów — jest najczęstszą przeszkodą. Ponadto, obawy dotyczące prywatności (62 %), braku transparentności (57 %) i aspektów etycznych (56 %) towarzyszą każdemu wdrożeniu GenAI.
Quantum AI — entuzjazm w cieniu niedojrzałości
Choć technologie kwantowe nadal funkcjonują głównie w fazie badań, prawie 30 % decydentów deklaruje ich znajomość, a 26 % — pełne zaufanie do Quantum AI.([sas.com][1]) To sygnał, że hype wyprzedza praktykę.
Między hype’em a infrastrukturą
Analiza wykazuje geograficzne różnice: kraje o bardziej uregulowanym rynku (jak niektóre państwa w UE) wykazują lepsze wskaźniki rzetelności (Trustworthy AI Index) i skuteczności AI (Impact Index). Tam, gdzie równoważenie zaufania i wiarygodności jest zrozumiane jako strategiczny warunek, skoki efektywności są największe.
Wdrażanie AI bez budowy solidnych fundamentów to ryzykowna strategia z potencjałem krótkoterminowego wzrostu, ale z długofalowym osłabieniem. W środowisku, w którym AI staje się mniej narzędziem wspomagającym, a bardziej kanałem podejmowania kluczowych decyzji — transparentność, etyka i kontrola stają się warunkiem jego trwałego sukcesu.