Kiedy sztuczna inteligencja staje się bronią: Nowe oblicze cyberprzestępczości

Klaudia Ciesielska - Redaktor prowadzący Brandsit
5 min

Hakerzy wyposażeni w sztuczną inteligencję obecnie udoskonalają swoje techniki ofensywne, co umożliwia im inicjowanie ataków na dużą skalę z większą skutecznością. Wykorzystując AI, są w stanie stosować bardziej zaawansowane strategie, aby przełamywać zabezpieczenia systemów, co sprawia, że rezultaty ich działań stają się coraz bardziej efektowne. Wobec tego, tradycyjne środki bezpieczeństwa nie wystarczają. Tylko maszyna może pokonać inną maszynę – w tym konflikcie jedynym skutecznym rozwiązaniem na osiągnięcie zwycięstwa jest wykorzystanie sztucznej inteligencji. 

Sztuczna inteligencja w służbie zła 

Techniki hakerów ewoluują. Już teraz sztuczna inteligencja wykorzystywana jest do wdrażania złośliwych algorytmów, które mogą się dostosowywać, uczyć i stale ulepszać, aby uniknąć wykrycia, sygnalizując zmianę paradygmatu w krajobrazie bezpieczeństwa cybernetycznego. 

Zdaniem Christiana Putza, Country Managera w Vectra AI, „ofensywna sztuczna inteligencja” wykorzysta swoją zdolność do uczenia się i adaptacji, zapoczątkowując nową erę cyberzagrożeń, w której wysoce wyspecjalizowane ataki imitujące zachowania człowieka staną się skalowalne i będą odbywać się z prędkością maszyny. Po znalezieniu się w docelowej sieci, atakująca sztuczna inteligencja wykorzysta zdobywane na bieżąco informacje do kierowania atakiem, automatycznie ustalając, gdzie znajdują się najcenniejsze dane. 

A najsłabszym ogniwem w łańcuchu bezpieczeństwa cybernetycznego pozostaje człowiek. Przy czym, podczas gdy zespół 15 cyberprzestępców może samodzielnie próbować sprowokować błąd ludzki i przeprowadzić dzięki temu 2 zaawansowane operacje równocześnie, sztuczna inteligencja pozwala przeprowadzić ich 200, osiągając lepsze wyniki. AI uskutecznia wszystkie techniki manipulacyjne, z których obecnie korzystają napastnicy. W oparciu o symulację zachowania użytkowników tworzone są chociażby e-maile phishingowe, których celem jest rozprzestrzenie złośliwego oprogramowania lub zbieranie cennych informacji. Wygenerowane przez AI wiadomości mają wyższe wskaźniki otwarcia niż te ręcznie spreparowane i pozwalają skuteczniej oszukać potencjalne ofiary, umożliwiając atak. 

“Oprócz fałszywych wiadomości e-mail istnieje wiele innych sposobów na znalezienie drogi wejścia do sieci przez oprogramowanie ransomware. Na pierwszy rzut oka innowacyjne technologie, takie jak NFC, wydają się wielkim krokiem naprzód, ale stanowią również kolejny punkt wejścia dla złośliwego oprogramowania. Wszystko to sprawia, że obecnie nie ma naprawdę skutecznego sposobu na zablokowanie dostępu przed ransomware. Zakładając jednak, że atak nastąpi możliwe jest odpowiednie reagowanie na naruszenie, i tutaj nieocenione są narzędzia oparte na AI.”

Christian Putz

Tylko sztuczna inteligencja jest w stanie pokonać sztuczną inteligencję

Odpowiedzią na pojawianie się coraz bardziej wyrafinowanych i nowatorskich cyberzagrożeń są systemy obronne wspomagane przez sztuczną inteligencję. Cyberwalkę wygra ten, kto zapewni sobie przewagę.

“Informacje o wczorajszych atakach nie pozwalają na przewidzenie jutrzejszych zagrożeń. Tradycyjne bezpieczeństwo sieci opiera się na opracowywaniu polityki bezpieczeństwa cybernetycznego i znajomości topologii sieci organizacji. Wykorzystanie sztucznej inteligencji do zwiększenia bezpieczeństwa sieci poprzez zrozumienie zachowania ruchu sieciowego pomaga ustalić zarówno operacyjną agregację zadań, jak i politykę prywatności.”

Christian Putz

Sztuczna inteligencja nie tylko zwiększa ogólne bezpieczeństwo cybernetyczne, ale pozwala również zautomatyzować operacje identyfikacji zagrożeń i łagodzić ich skutki.

“Atakujący stosują techniki dowodzenia i kontroli, aby uniknąć wykrycia przez zabezpieczenia sieciowe, na przykład, aby obejść zapory ogniowe i systemy IDS/IPS, informacje są osadzane w zapytaniach DNS. Ręcznej analizie i wykrywaniu brakuje skali i szybkości potrzebnych do skutecznego wykrywania dzisiejszych ataków i reagowania na nie. Tylko dzięki narzędziom opartym na sztucznej inteligencji możliwy jest ciągły wglądu w zabezpieczenia i monitorowanie sieci.”

Christian Putz

Ma to ogromne znaczenie zwłaszcza w obliczu nasilonych w ostatnim czasie działań cyberprzestępców, które przekładają się na przeciążenie nie tylko systemów, ale i zmęczenie specjalistów odpowiedzialnych za bezpieczeństwo. 

“Rosnące zmęczenie i rezygnacje analityków będą miały wpływ na zmianę podejścia do ochrony. W miejsce „nieprzekraczalnych” barier pojawi się wykrywanie i reakcja. Napastnicy nieprzerwanie uderzają w firmowe systemy, a ciągłe próby zablokowania niekończących się ataków wywołują zmęczenie i ostatecznie rezygnację wśród specjalistów ds. bezpieczeństwa cybernetycznego. Aby temu zapobiec należy przenieść ciężar działań na zmniejszenie skutków ataku. Oznacza to budowanie odporności w organizacji obejmującej ludzi, procesy i technologię oraz skupienie się na wczesnym wykrywaniu i właściwym reagowaniu, w przeciwieństwie do ochrony i zapobiegania. Kluczem stanie się zdolność wykrywania ataku nim przeniknie do wrażliwych danych i systemów.”

Christian Putz

Jakie działania można podjąć? 

Przede wszystkim eksperci ds. bezpieczeństwa muszą zaplanować przyszłościowy system oprogramowania AI, który będzie w stanie ocenić wszystkie potencjalne wektory zagrożeń, wybrać odpowiednią strategię, skutecznie ją wdrożyć oraz zlokalizować złośliwe oprogramowanie.

Organizacje muszą z kolei ocenić, w jaki sposób ataki AI mogą zostać użyte przeciwko ich systemowi AI. Taka analiza jest niezbędna do opracowania strategii planu reagowania. Przetwarzanie języka naturalnego może służyć do gromadzenia danych o poprzednich i obecnych cyberatakach, zbierania danych o zagrożeniach i ulepszania funkcji prywatności.

SOURCES:Vectra AI
Zostaw komentarz

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *