Tani, szybki i… niebezpieczny? Mroczna strona chińskiego DeepSeek

DeepSeek miał być przełomem w świecie sztucznej inteligencji – tani, szybki i dostępny dla wszystkich, wzbudzając euforię wśród inwestorów i ekspertów. Jednak najnowsze analizy ujawniły poważne luki w zabezpieczeniach, które mogą uczynić go niebezpiecznym narzędziem w rękach cyberprzestępców.

Izabela Myszkowska
Autor: UMA media / Pexels

DeepSeek miał zrewolucjonizować świat sztucznej inteligencji, oferując model językowy, który był nie tylko tani, ale również szybki w trenowaniu. Chińska firma stojąca za projektem zaprezentowała go jako odpowiedź na kosztowne rozwiązania OpenAI czy Google, a jego open-source’owa licencja miała dać deweloperom nieograniczoną swobodę modyfikacji.

Sukces DeepSeek wywołał niemałe poruszenie na rynku – jego potencjał wstrząsnął inwestorami do tego stopnia, że akcje Nvidii w ciągu jednej sesji spadły o 470 miliardów dolarów. Szybko jednak euforia ustąpiła miejsca niepokojowi, gdy specjaliści z Unit 42 Palo Alto Networks odkryli, że model posiada poważne luki w zabezpieczeniach.

Głęboka podatność na cyberataki

Według raportu Palo Alto Networks, DeepSeek jest podatny na tzw. jailbreak, czyli metodę wykorzystywaną przez cyberprzestępców do omijania zabezpieczeń systemów opartych na AI. Zwykle dobrze chronione modele natychmiast blokują próby pozyskania instrukcji dotyczących np. budowy ładunków wybuchowych czy tworzenia złośliwego oprogramowania. Tymczasem DeepSeek okazał się podatny na manipulacje i potrafił generować szczegółowe instrukcje dotyczące m.in. kradzieży haseł czy tworzenia narzędzi hakerskich.

„Cyberprzestępcy otrzymują w ten sposób nowe narzędzia do prowadzenia szeroko zakrojonych cyberataków. Przypadek DeepSeek pokazuje, że nawet w domowych warunkach można skłonić AI do generowania złośliwego oprogramowania” – mówi Grzegorz Latosiński, dyrektor Palo Alto Networks w Polsce.

Ryzyko dla firm i użytkowników

Odkrycie luk w DeepSeek rodzi poważne pytania dotyczące bezpieczeństwa wdrażania nowych modeli AI w organizacjach. Wiele firm już teraz eksperymentuje z alternatywnymi rozwiązaniami, aby zmniejszyć koszty i uniezależnić się od gigantów technologicznych. Niestety, jak pokazuje przypadek DeepSeek, tania alternatywa może pociągać za sobą ogromne ryzyko.

Wdrożenie nieautoryzowanych modeli może narazić organizacje na ataki i wycieki danych. Eksperci podkreślają, że choć pełna ochrona przed zagrożeniami ze strony LLM (Large Language Models) jest trudna, kluczowe jest monitorowanie i kontrolowanie ich wykorzystania przez pracowników. Firmy powinny także inwestować w narzędzia, które pomogą wykrywać potencjalne zagrożenia płynące z korzystania z mniej znanych rozwiązań.

Co dalej z rozwojem AI?

DeepSeek nie będzie ostatnim modelem, który zaskoczy rynek. W miarę rosnącego zapotrzebowania na tanie i efektywne rozwiązania AI, kolejne technologie będą pojawiać się w błyskawicznym tempie. Jednak historia DeepSeek przypomina, że za innowacją często kryją się zagrożenia, które mogą wpłynąć nie tylko na cyberbezpieczeństwo firm, ale także na globalny krajobraz technologiczny.

Organizacje, które chcą wdrażać AI, muszą podejść do tego procesu ostrożnie – nie ulegając wyłącznie wizji oszczędności i wydajności, ale również dbając o bezpieczeństwo danych i zgodność z regulacjami. Wyścig o dominację w sektorze AI trwa, ale tylko te firmy, które znajdą balans między innowacją a ochroną, będą w stanie skutecznie wykorzystać potencjał nowych technologii.

Udostępnij