Sztuczna inteligencja jak puszka Pandory – Microsoft z OpenAI zamyka konta cyberprzestępców

Klaudia Ciesielska
Klaudia Ciesielska - Redaktor prowadzący Brandsit
3 min

Microsoft i OpenAI wykryli i zakłócili wykorzystanie technologii AI przez cyberprzestępców, zamykając ich konta. W poście na blogu, firma zaznaczyła, że stosowane techniki były na “wczesnym etapie” i nie były “szczególnie nowe, ani unikalne”, lecz ich ujawnienie publiczne jest istotne, ponieważ przeciwnicy USA wykorzystują modele wielkojęzyczne do rozszerzania swojej zdolności włamywania się do sieci i przeprowadzania operacji wpływowych.

Wykorzystanie uczenia maszynowego w cyberbezpieczeństwie nie jest nowością; firmy z tej branży od dawna stosują je do wykrywania anomalii. Jednakże, wprowadzenie modeli wielkojęzycznych, takich jak ChatGPT od OpenAI, podnosi poziom gry w kotka i myszkę między przestępcami a obrońcami cyfrowymi.

Microsoft zainwestował miliardy dolarów w OpenAI, a ich wspólne działania przeciwko złośliwemu wykorzystaniu AI podkreślają rosnące zagrożenie, jakie generatywna sztuczna inteligencja stanowi dla bezpieczeństwa cyfrowego. Raport firmy wskazuje, że AI usprawni złośliwą inżynierię społeczną, prowadząc do bardziej wyrafinowanych deepfake’ów i klonowania głosu, co spotęguje dezinformację.

Przykłady dostarczone przez Microsoft pokazują, jak przeciwnicy USA wykorzystują AI do celów takich jak cyberszpiegostwo, inżynieria społeczna, badanie technologii oraz generowanie treści do kampanii phishingowych. Takie działania podkreślają potrzebę globalnego podejścia do zabezpieczeń cybernetycznych oraz odpowiedzialnego rozwijania i stosowania technologii AI.

- Advertisement -

Krytyka publicznego wydania ChatGPT i podobnych narzędzi przez konkurentów takich jak Google i Meta, dotycząca pochopności uwzględnienia aspektów bezpieczeństwa, podkreśla znaczenie odpowiedzialnego rozwoju technologii AI. 

W kontekście cyberbezpieczeństwa, rosnąca obawa dotyczy nie tylko tego, jak przestępcy mogą wykorzystywać AI do zaawansowanych ataków, ale także jak można stworzyć bardziej bezpieczne modele AI, które nie będą tak łatwo nadużywane. Pozostaje pytanie, coraz częściej zadawane przez ekspertow – dlaczego branża koncentruje się na tworzeniu narzędzi obronnych dla problemu, który pomagała stworzyć, zamiast na budowaniu bezpieczniejszych modeli od podstaw.

Kolejną kwestią, którą podnoszą eksperci jest fakt, że choć obecne wykorzystanie AI i modeli wielkojęzycznych przez przestępców może nie stanowić bezpośredniego zagrożenia, w końcu jednak może do tego dojść. To przestroga, która zmusza do refleksji nad przyszłością cyberbezpieczeństwa oraz nad tym, jak technologie takie jak AI mogą zmienić oblicze wojny informacyjnej i cybernetycznej.

W związku z tym, branża technologiczna, rządy i instytucje międzynarodowe muszą podjąć współpracę w celu stworzenia ram regulacyjnych i etycznych dla rozwoju i zastosowania sztucznej inteligencji. To nie tylko kwestia ograniczenia złośliwego wykorzystania AI przez przestępców, ale także zapewnienia, że innowacje technologiczne służą dobroci ogólnej, a nie stają się narzędziem dla najbardziej destrukcyjnych form cyberprzestępczości.

Udostępnij
- REKLAMA -