Deloitte po raz kolejny musi tłumaczyć się z jakości swoich usług doradczych, a w centrum uwagi znów znajduje się generatywna sztuczna inteligencja. Kanadyjski oddział firmy mierzy się z poważnymi zarzutami dotyczącymi 526-stronicowego raportu na temat systemu opieki zdrowotnej dla prowincji Nowa Fundlandia i Labrador. Dokument, za który lokalny rząd zapłacił blisko 1,6 miliona dolarów, zawiera nieistniejące badania i fałszywe przypisy, co sugeruje niezweryfikowane i ryzykowne użycie narzędzi AI w procesie tworzenia analiz.
Śledztwo portalu „The Independent” ujawniło, że raport cytuje prace naukowe, których nie można odnaleźć w żadnych bazach danych. Co gorsza, dokument przypisuje autorstwo realnym ekspertom w publikacjach, które nigdy nie powstały. Przykładem jest Gail Tomblin Murphy z Uniwersytetu Dalhousie, która ze zdumieniem odkryła swoje nazwisko przy fikcyjnej pracy, stwierdzając, że wygląda to na znaczący udział AI w generowaniu treści bez nadzoru. To nie jest odosobniony incydent w strukturach giganta „Wielkiej Czwórki”. Zaledwie w październiku australijski oddział firmy musiał zwrócić część honorarium za raport rządowy, w którym – przy przyznanym wsparciu Azure OpenAI – wygenerowano nieistniejące cytaty z orzeczeń sądowych.
Deloitte Canada w oświadczeniu dla Fortune przyznał się do „selektywnego wykorzystania” technologii do obsługi cytatów badawczych, zapewniając jednocześnie, że kluczowe wnioski strategiczne raportu pozostają nienaruszone, a błędy zostaną skorygowane. Sytuacja ta rzuca jednak cień na wiarygodność firm konsultingowych w erze gwałtownej transformacji cyfrowej. Pokazuje wyraźnie, że implementacja GenAI w procesach analitycznych bez rygorystycznych procedur weryfikacji typu *human-in-the-loop* staje się poważnym ryzykiem operacyjnym i wizerunkowym, nawet dla największych graczy na rynku IT i doradztwa.
