Sztuczna inteligencja – jej rozwój to nie tylko szansa, ale także spore zagrożenie. Jak wykorzystują ją cyberprzestępcy?

Klaudia Ciesielska
Klaudia Ciesielska - Redaktor prowadzący Brandsit
4 min

 Wraz z rozwojem sztucznej inteligencji (AI), na LinkedIn i w mediach internetowych rozgorzała dyskusja na temat korzyści, jakie może ona przynieść zarówno podmiotom odpowiedzialnym za zagrożenia  jak i zespołom odpowiedzialnym za bezpieczeństwo. Choć AI może być potężnym narzędziem dla cyberprzestępców, pozwalając im na automatyzację ataków i skuteczniejsze unikanie wykrycia, może być również potężnym narzędziem dla specjalistów ds. bezpieczeństwa, pozwalając im na szybsze i skuteczniejsze wykrywanie i reagowanie na zagrożenia. Kto wygra ten pojedynek? Jak sztuczna inteligencja jest wykorzystywana przez cyberprzestępców a jak przez specjalistów od zabezpieczeń i bezpieczeństwa?- analizuje Steve Foster z Netskope, Senior Solutions Engineer.

Copy of Steve Foster WEB
Sztuczna inteligencja - jej rozwój to nie tylko szansa, ale także spore zagrożenie. Jak wykorzystują ją cyberprzestępcy? 11

Te polaryzujące prognozy skłaniają do zastanowienia się czy wpływ AI na bezpieczeństwo cybernetyczne może się w końcu zrównoważyć? Czy każdy postęp dokonany przez cyberprzestępców może spotkać się z takim samym postępem ze strony specjalistów od bezpieczeństwa? Wszystko wspierane przez te same narzędzia? Oczywiście ta równowaga działa tylko tak długo, jak długo wszyscy nadążają za konkurencją. W miarę jak cyberprzestępcy stają się coraz bardziej sprawni w wykorzystywaniu AI, specjaliści ds. bezpieczeństwa będą musieli również zapewnić, że wykorzystują bardziej zaawansowane narzędzia i techniki do obrony przed tymi atakami.

Jak cyberprzestępcy korzystają z AI?

  • wykorzystują AI do identyfikacji celów; skanują internett w poszukiwaniu podatnych systemów na atka;
  • tworzą AI-boty w celu naśladowania ludzkich zachowań, aby skuteczniej unikać wykrycia przez systemy bezpieczeństwa;
  • generują ukierunkowane e-maili phishingowe za pomocą AI, być może przygotowane na podstawie wielu zestawów danych zdobytych w Dark Web, tak aby zawierały wiarygodne szczegóły, które pomogą zwabić cel i zbudować zaufanie (ponieważ społeczeństwo staje się coraz bardziej przyzwyczajone do interakcji z AI-botami do obsługi klienta, podszywanie się pod te chatboty może stać się użytecznym narzędziem inżynierii społecznej dla złośliwych cyberprzestępców);
  • tworzą coraz bardziej wyrafinowane złośliwe oprogramowania, np. wykorzystując sztuczną inteligencję do znajdowania możliwych do wykorzystania wzorców w systemach bezpieczeństwa i tworzą złośliwe oprogramowanie, które jest specjalnie zaprojektowane w celu uniknięcia wykrycia.

Jak specjaliści ds. bezpieczeństwa  korzystają z AI?

  • analizują ogromnych ilości danych z wielu źródeł w celu identyfikacji i śledzenia potencjalnych zagrożeń. Systemy Threat Intelligence mogą również uczyć się na podstawie przeszłych incydentów, co pozwala im na dostosowanie się i doskonalenie w czasie;
  • oferują pracownikom szkolenia przed wystąpieniem incydentu poprzez identyfikację ryzykownych wzorców zachowań, co pozwala pracownikom do podejmowania lepszych decyzji w zakresie ochrony danych i bezpieczeństwa systemu;
  • sortują incydenty bezpieczeństwa i nadają im priorytety na podstawie poziomu ryzyka;
  • wykorzystują rekomendacje AI w celu skupienia wysiłków na najbardziej krytycznych problemach;
  • wykrywają wzorce, które wskazują na potencjalny incydent bezpieczeństwa, a następnie;
  • automatyczne uruchamiają reakcje i alarmy dla zespołów bezpieczeństwa (ostatnio udowodnione w swojej skuteczności przez NATO);
  • korzystają z automatyzacji badania incydentów; pomoc w identyfikacji pierwotnej przyczyny incydentu i powiadomienie odpowiednich stron.

Kto więc będzie zwycięzcą w tej walce o bezpieczeństwo naszych danych i infrastruktury? Sztuczna inteligencja ma potencjał, aby zrewolucjonizować cyberbezpieczeństwo, ale nie usunie wymogu jasnej architektury i strategii.  Nie można jeszcze zlecić naszej pracy tylko maszynom i pójść zrobić sobie filiżankę kawy. W nadchodzących miesiącach i latach ważne będzie zrozumienie, że sztuczna inteligencja nie jest lekarstwem na wszystko ani samodzielnym rozwiązaniem, ale raczej narzędziem uzupełniającym, które należy stosować w połączeniu z innymi środkami bezpieczeństwa. Podobnie jak ludzki zespół bezpieczeństwa, AI wymaga ciągłego monitorowania, oceny i dostrajania, aby zapewnić, że działa zgodnie z oczekiwaniami i zająć się wszelkimi nieścisłościami w danych. 

SOURCES:Netskope
Udostępnij
Leave a comment

Dodaj komentarz

- REKLAMA -