OpenAI ujawnia nowe zagrożenia: Hakerzy wykorzystują AI do tworzenia złośliwego kodu

OpenAI ujawniło w swoim najnowszym raporcie, że zdołało zakłócić działalność około dwudziestu operacji hakerskich, które wykorzystywały sztuczną inteligencję do generowania złośliwego kodu. Raport wskazuje na rosnące zagrożenie związane z nadużywaniem AI przez cyberprzestępców, którzy stosują tę technologię do ataków phishingowych, dezinformacji i łamania systemów bezpieczeństwa.

źródło: Pexels
Natalia Zębacka
3 min

W ostatnich latach sztuczna inteligencja (AI) zyskuje na popularności i w coraz większym stopniu wspiera rozwój technologii oraz automatyzację wielu dziedzin życia. Jednak wraz z rosnącą potęgą AI pojawiają się również nowe zagrożenia, co potwierdza raport Threat Intelligence opublikowany przez firmę OpenAI – twórców znanego chatbota ChatGPT. W swoim najnowszym dokumencie, OpenAI ujawnia, że zakłóciło już około dwudziestu operacji hakerskich, w których złośliwe grupy wykorzystywały AI do generowania nieuczciwego kodu i przeprowadzania cyberataków.

Hakerzy i AI – nowa forma zagrożenia

Raport przedstawia, jak sztuczna inteligencja, która zrewolucjonizowała wiele sektorów, od programowania po obsługę klienta, stała się również narzędziem w rękach cyberprzestępców. W ostatnich miesiącach odnotowano wzrost przypadków, w których hakerzy wykorzystują AI do tworzenia złośliwego oprogramowania. Jak wynika z raportu OpenAI, niektóre z tych złośliwych ataków zawierały fragmenty kodu wygenerowane bezpośrednio przez modele AI, takie jak ChatGPT.

W analizie wskazano, że cyberprzestępcy używają sztucznej inteligencji nie tylko do tworzenia kodu, ale również do omijania systemów bezpieczeństwa oraz przeprowadzania bardziej wyrafinowanych ataków. Przykładem są ataki typu spearphishing, gdzie zaawansowane modele AI były wykorzystywane do personalizacji wiadomości phishingowych, co zwiększa skuteczność oszustw.

REKLAMA

20 operacji zakłóconych przez OpenAI

Firma OpenAI podkreśla, że dzięki swoim narzędziom i technologiom udało się zakłócić działalność około dwudziestu operacji hakerskich oraz sieci dezinformacyjnych, które wykorzystywały AI do nielegalnych celów. Działania te obejmowały współpracę z różnymi zespołami wywiadu, bezpieczeństwa oraz organami ścigania.

Jednym z najważniejszych aspektów raportu jest przedstawienie przykładów grup hakerskich, które stosowały zaawansowane modele AI w swoich operacjach. Wśród nich wymieniono m.in. chińską grupę SweetSpecter, która angażowała się w rozpowszechnianie dezinformacji, oraz grupy takie jak CyberAv3ngers i STORM-0817, które koncentrowały się na bardziej technicznych atakach, wykorzystując AI do tworzenia złośliwego kodu oraz naruszania systemów bezpieczeństwa.

Nadużycia modeli AI – wyzwanie dla branży technologicznej

Choć sztuczna inteligencja oferuje ogromne możliwości dla rozwoju technologii i przemysłu, raport OpenAI uwypukla zagrożenie związane z jej nadużywaniem. Modele AI, które z założenia mają wspierać programistów i zwiększać produktywność, mogą również zostać użyte do tworzenia narzędzi wykorzystywanych przez cyberprzestępców. OpenAI zwraca uwagę, że współczesne modele AI nie tylko generują poprawny kod, ale mogą również, świadomie lub nie, być źródłem złośliwych rozwiązań, jeśli trafią w nieodpowiednie ręce.

OpenAI zaznacza, że stale współpracuje z organami ścigania, zespołami badawczymi i ekspertami ds. bezpieczeństwa, aby lepiej rozumieć, jak złośliwi aktorzy mogą wykorzystywać AI w przyszłości. Firma deklaruje również, że nieustannie rozwija swoje narzędzia i polityki bezpieczeństwa, aby przeciwdziałać potencjalnym zagrożeniom.