Eksperyment IBM X-Force – Walka o cyberbezpieczeństwo w erze AI

Klaudia Ciesielska
Klaudia Ciesielska - Redaktor prowadzący Brandsit
3 min

Sztuczna inteligencja staje się coraz bardziej wszechstronna, a jej zdolności do oszustw online, takich jak phishing, rosną w tempie, który warto obserwować i reagować na niego. Dochodzenie przeprowadzone przez zespół bezpieczeństwa X-Force IBM przynosi ważne wnioski dotyczące roli sztucznej inteligencji w dziedzinie cyberbezpieczeństwa.

IBM X-Force, znany zespół ds. bezpieczeństwa w amerykańskim gigancie technologicznym, postanowił zbadać, na ile zaawansowana jest sztuczna inteligencja w dziedzinie oszustw online, w szczególności phishingu, i porównać ją z ludzkimi umiejętnościami. Wyniki tego eksperymentu rzucają nowe światło na rozwijającą się problematykę cyberbezpieczeństwa.

AI i phishing

Eksperyment przeprowadzony przez IBM X-Force dowodzi, że generatywne modele sztucznej inteligencji, takie jak AI ChatGPT, potrafią tworzyć wyjątkowo przekonujące e-maile phishingowe w zaledwie pięciu podpowiedziach, co jest zaskakująco efektywne. Co więcej, cały proces zajmuje AI zaledwie kilka minut, podczas gdy ludzie z X-Force pracują nad idealnym phishingowym e-mailem przez około szesnaście godzin.

W trakcie eksperymentu, sztuczna inteligencja była instruowana do tworzenia wiadomości phishingowych dostosowanych do konkretnych branż i pracowników. Naukowcy skupili się na odpowiednich tematach, tak aby wiadomości były jak najbardziej wiarygodne i spersonalizowane. AI musiała także opracować techniki społecznościowe i marketingowe, aby zoptymalizować skuteczność tych wiadomości. Efektem były wiadomości, które wydawały się pochodzić od działu HR i dotyczyły kwestii związanych z pracą oraz możliwościami kariery, emanując zaufaniem i autorytetem.

- Advertisement -

Człowiek jednak lepszy

Jednak mimo tych oszałamiających osiągnięć, ludzki zespół okazał się nieco bardziej przekonujący, osiągając tylko trzy procentową przewagę nad sztuczną inteligencją w zyskiwaniu zaufania odbiorców. Ostateczny wniosek jest taki, że ludzka empatia i umiejętność personalizacji wciąż sprawdzają się lepiej w takich sytuacjach. Ponadto, sztuczna inteligencja miała tendencję do tworzenia zbyt długich tematów e-maili, co może stanowić czynnik, który ułatwia identyfikację phishingu.

Mimo że sztuczna inteligencja jeszcze nie jest doskonałym narzędziem dla cyberprzestępców, warto zauważyć, że technologia ta rozwija się szybko i dynamicznie. Firmy oraz osoby prywatne muszą zatem zachować czujność i być świadome zagrożeń związanych z phishingiem. Pomimo wielu ostrzeżeń i incydentów, phishing pozostaje nadal popularną taktyką wykorzystywaną przez cyberprzestępców.

Wnioskiem jest, że walka z cyberzagrożeniami nie może opierać się wyłącznie na tradycyjnych środkach, a także musi uwzględniać ewoluującą rolę sztucznej inteligencji. Bezpieczeństwo online to wspólna odpowiedzialność, a świadomość i edukacja stanowią kluczowe narzędzia w zapobieganiu oszustwom online.

Udostępnij
- REKLAMA -