Filozof Paul Virilio powiedział kiedyś: “Wynalezienie statku oznacza wynalezienie katastrof morskich”. W kontekście obecnej, gwałtownej fali adopcji sztucznej inteligencji, to stwierdzenie nabiera egzystencjalnego znaczenia dla biznesu. AI przestało być jedynie narzędziem innowacji; stało się fundamentalnym i złożonym elementem nowego krajobrazu ryzyka.
Dla dyrektorów ds. innowacji (CIO/CTO), dyrektorów ds. bezpieczeństwa (CISO) i zarządów, zarządzanie AI stało się wyzwaniem trójwymiarowym. Najnowsza analiza, oparta na raporcie CyberArk 2025 Identity Security Landscape, pokazuje, że sztuczna inteligencja jest jednocześnie potężną bronią w rękach atakujących, kluczowym elementem arsenału obronnego oraz – co najważniejsze i najczęściej ignorowane – nowym, wewnętrznym źródłem ryzyka.
Podczas gdy firmy skupiają się na wyścigu zbrojeń na pierwszej linii frontu, prawdziwe zagrożenie rośnie wewnątrz. Niekontrolowana adopcja AI tworzy nową, niewidzialną klasę tożsamości, na którą tradycyjne modele bezpieczeństwa są całkowicie nieprzygotowane.
Oblicze pierwsze: AI jako broń
Pierwszy wymiar wyzwania AI jest najbardziej widoczny: ofensywne wykorzystanie sztucznej inteligencji przez cyberprzestępców. Dane są alarmujące: aż dziewięć na dziesięć organizacji zgłosiło w ubiegłym roku skuteczne naruszenie bezpieczeństwa skoncentrowane na tożsamości. Ataki te stają się coraz skuteczniejsze, ponieważ AI radykalnie zwiększyło ich skalę, wyrafinowanie i precyzję.
Tradycyjne ataki phishingowe przechodzą rewolucję. Atakujący używają AI do generowania e-maili, które są “wysoce spersonalizowane, świadome kontekstu i prawie niemożliwe do odróżnienia od legalnych nadawców”. Potrafią analizować dane publiczne, naśladować ton komunikacji i automatyzować kampanie socjotechniczne na wielu kanałach jednocześnie.
W rezultacie ponad 75% respondentów przyznało, że ich organizacje padły ofiarą udanych ataków phishingowych, w tym coraz bardziej powszechnych oszustw typu deepfake. Co gorsza, ponad połowa z nich padła ofiarą wielokrotnie.
Oznacza to, że tradycyjny model ludzkiego firewalla – poleganie na szkoleniach pracowników w celu wykrywania zagrożeń – właśnie przestaje działać. Żaden pracownik, niezależnie od poziomu przeszkolenia, nie jest w stanie konsekwentnie wykrywać ataków, które są niemal idealne. Zagrożenie eskaluje z poziomu ryzyka IT do bezpośredniego ryzyka finansowego, czego dowodem jest głośny przypadek wyłudzenia miliona euro przy użyciu głosu deepfake.
Oblicze drugie: AI jako tarcza
W odpowiedzi na ataki napędzane przez AI, firmy słusznie inwestują w defensywną sztuczną inteligencję. Drugie oblicze AI to rola tarczy. Zdecydowana większość, bo aż 94% organizacji, potwierdza, że już teraz używa procesów AI i modeli językowych (LLM) do wzmacniania swoich strategii bezpieczeństwa tożsamości.
Inwestycje te są kluczowe. Zespoły ds. bezpieczeństwa (SOC) używają AI do zaawansowanej analityki i wykrywania anomalii (55% ankietowanych), wykrywania syntetycznych tożsamości (58%) oraz automatyzacji odpowiedzi na incydenty (51%). W praktyce, AI może zredukować czas reakcji na incydent z godzin do sekund, automatycznie wyłączając zagrożenia i odciążając przeciążone zespoły ludzkie.
Wdrożenie defensywnego AI nie jest już opcją, ale strategiczną koniecznością w trwającym wyścigu zbrojeń. Poleganie na ludzkich analitykach w celu wykrycia ataków generowanych przez AI jest z góry przegraną bitwą.
Pojawia się tu jednak niepokojący paradoks. Jeśli 94% firm używa AI do obrony, dlaczego 90% z nich nadal doświadcza skutecznych naruszeń?. Odpowiedź jest prosta: defensywne AI jest niezbędne, aby w ogóle pozostać w grze, ale nie jest rozwiązaniem samym w sobie. Ten widoczny wyścig zbrojeń odwraca uwagę zarządów i CISO od znacznie większego, wewnętrznego zagrożenia, które rośnie w tym samym czasie.
Oblicze trzecie: krytyczne ryzyko wewnętrzne
Trzecie i najbardziej krytyczne oblicze AI to ryzyko generowane przez samą organizację. Paradoks polega na tym, że największe zagrożenie nie pochodzi od zewnętrznych hakerów, ale od własnych pracowników, działających w zgodzie z mandatem zarządu na innowacje.
Analiza CyberArk ujawnia fundamentalną przepaść. Z jednej strony, aż 72% pracowników regularnie używa narzędzi AI w swojej codziennej pracy. Z drugiej strony, 68% liderów bezpieczeństwa przyznaje, że brakuje im kontroli bezpieczeństwa tożsamości dla tych właśnie technologii.
Ta luka między szybką adopcją a wolnym bezpieczeństwem tworzy zjawisko Shadow AI (Cienistej AI). Raport wskazuje, że 36% pracowników używa narzędzi AI, które nie są w pełni zatwierdzone lub zarządzane przez IT. Co jeszcze bardziej niepokojące, 47% firm przyznaje wprost, że nie jest w stanie zabezpieczyć i zarządzać wszystkimi narzędziami Shadow AI używanymi w organizacji.
Dla zarządu implikacja jest brutalna: mandat na innowacje jest interpretowany przez działy biznesowe jako zielone światło do adopcji dowolnych narzędzi, całkowicie omijając kontrolę IT i bezpieczeństwa. W praktyce oznacza to, że poufne dane firmy – kod źródłowy, strategie finansowe, dane klientów – są masowo wprowadzane do zewnętrznych modeli LLM, nad którymi firma traci wszelką kontrolę. To nie jest potencjalny wyciek danych; to jest trwający wyciek danych.
Nowa klasa zagrożeń: agenci AI i eksplozja tożsamości maszyn
Problem Shadow AI jest tylko preludium do znacznie głębszego, systemowego wyzwania. Szybka adopcja AI nie tylko tworzy luki w politykach; ona aktywnie generuje nową klasę użytkowników – tożsamości maszynowych.
Skala tej zmiany jest trudna do wyobrażenia. Raport CyberArk ujawnia, że tożsamości maszynowe (należące do aplikacji, usług w chmurze, skryptów i procesów AI) przewyższają obecnie liczebnie tożsamości ludzkie w oszałamiającym stosunku 82:1.
Co napędza tę eksplozję? To właśnie AI. Sztuczna inteligencja jest wskazywana jako kreator nr 1 nowych tożsamości z uprzywilejowanym i wrażliwym dostępem, który pojawi się w 2025 roku. Te tożsamości nie są pasywne. Aż 42% wszystkich tożsamości maszynowych ma dostęp do wrażliwych danych firmy – dla porównania, taki dostęp ma 37% ludzkich użytkowników.
Dochodzimy tu do najbardziej krytycznego wniosku z całej analizy. Pomimo tej rzeczywistości, aż 88% liderów bezpieczeństwa przyznaje, że w ich organizacjach użytkownik uprzywilejowany jest nadal definiowany jako wyłącznie człowiek.
Oznacza to, że całe strategie bezpieczeństwa tożsamości (IAM/PAM) w blisko dziewięciu na dziesięć firmach są zbudowane na fundamentalnie fałszywym, ludzkocentrycznym założeniu. Są systemowo ślepe na 99% (czyli 82 z 83) tożsamości w swoich sieciach, z których prawie połowa ma dostęp do klejnotów koronnych firmy.
W tym kontekście pojawia się nowa klasa zagrożeń: Agenci AI. Nie są to zwykłe skrypty, ale autonomiczne tożsamości maszynowe, które postrzegają, rozumują i działają w imieniu firmy. Ich uprzywilejowany dostęp, połączony z autonomią, stanowi całkowicie nowy wektor ataku, na który tradycyjne systemy bezpieczeństwa, zaprojektowane do monitorowania ludzi, nie są przygotowane.
Wnioski: odporność w czasach AI
Analiza trójwymiarowego wyzwania AI prowadzi do jednego wniosku: inwestowanie w Tarczę AI, aby przetrwać ataki Broni AI, jest daremne, jeśli zignorujemy Wewnętrzne Ryzyko AI. Firmy masowo wdrażają innowacje (72% adopcji) bez fundamentów bezpieczeństwa (68% luki), tworząc armię niewidzialnych, uprzywilejowanych tożsamości maszynowych (stosunek 82:1), których nie potrafią kontrolować (88% ślepoty).
Aby zbudować odporność biznesową, CISO i CIO muszą przekonać zarządy do strategii opartej na bezpieczeństwie tożsamości.
1. Trójwarstwowe podejście do wdrożeń AI. Bezpieczeństwo AI musi być wbudowane w cały cykl życia technologii:
- Bezpieczny rozwój (Secure Development): Zapewnienie, że dane treningowe są czyste, a modele tworzone zgodnie z praktykami bezpieczeństwa.
- Bezpieczne wdrożenie (Secure Deployment): Środowisko operacyjne, w którym działa AI, musi być chronione ścisłymi środkami bezpieczeństwa tożsamości.
- Bezpieczne użycie (Secure Use): Integracja AI z modelami bezpieczeństwa tożsamości, aby chronić dostęp użytkowników i samych agentów.
2. Definicja strategii dla agentów AI. Jak stwierdza raport: “Maszyny zachowujące się jak ludzie wymagają zarówno ludzkich, jak i maszynowych kontroli bezpieczeństwa”. Każdy autonomiczny agent AI musi być traktowany jak nowy “pracownik” z unikalną tożsamością. Wymaga to uwierzytelniania, zarządzania dostępem (zgodnie z zasadą najmniejszego przywileju) oraz kontrolowania cyklu życia tożsamości AI, aby zapobiec powstawaniu nieautoryzowanego dostępu.
3. Skonsoliduj i scentralizuj widoczność. Problem “silosów tożsamości”, które 70% respondentów uznaje za źródło ryzyka, musi zostać rozwiązany. Konieczna jest centralizacja zarządzania wszystkimi tożsamościami – ludzkimi i maszynowymi – na jednej platformie, aby odzyskać widoczność i kontrolę.
Jak trafnie zauważono w raporcie: “AI może przepisywać zasady, ale bezpieczeństwo tożsamości kontroluje ryzyko”. Innowacja oparta na AI musi iść w parze ze strategią bezpieczeństwa tożsamości. Ignorowanie tożsamości maszynowych generowanych przez AI to nie jest ryzyko, które można zaakceptować. To prosta droga do katastrofy operacyjnej i strategicznej.
