Bezpieczeństwo AI w 2025 roku – kluczowe wnioski z raportu Cisco
W miarę jak coraz więcej firm wdraża sztuczną inteligencję, zrozumienie związanych z nią zagrożeń bezpieczeństwa staje się kluczowe. AI zmienia branże i procesy pracy, ale jednocześnie wprowadza nowe wyzwania, które organizacje muszą rozwiązać. Zabezpieczenie systemów AI jest niezbędne, aby zachować zaufanie, chronić prywatność i zapewnić płynne działanie biznesu. W tym artykule przedstawiamy najważniejsze wnioski z raportu Cisco pt. „State of AI Security in 2025”, który analizuje obecny stan bezpieczeństwa AI i wskazuje, na co firmy powinny zwrócić uwagę w przyszłości.
Rosnące zagrożenia dla sztucznej inteligencji
Rok 2024 pokazał, że tempo wdrażania AI przewyższa możliwości wielu organizacji w zakresie jej zabezpieczania. Według raportu Cisco około 72% firm wykorzystuje AI w swoich procesach, ale tylko 13% czuje się w pełni przygotowanych, aby robić to bezpiecznie. Ta luka wynika głównie z obaw związanych z bezpieczeństwem, które są główną barierą dla szerszego zastosowania AI w przedsiębiorstwach. Co gorsza, AI wprowadza nowe typy zagrożeń, na które tradycyjne metody cyberbezpieczeństwa nie są w pełni przygotowane. W przeciwieństwie do konwencjonalnych systemów, AI generuje dynamiczne i adaptacyjne ataki, trudniejsze do przewidzenia. Raport wymienia kilka kluczowych zagrożeń:
- Ataki na infrastrukturę AI: Infrastruktura AI stała się głównym celem hakerów. Przykładem jest atak na NVIDIA Container Toolkit, który umożliwił dostęp do systemów plików i uruchamianie złośliwego kodu. Podobnie framework Ray, używany do zarządzania GPU, padł ofiarą jednego z pierwszych realnych ataków na otwarte oprogramowanie AI.
- Ryzyka w łańcuchu dostaw: Około 60% firm korzysta z otwartych komponentów AI, co zwiększa ryzyko ataków. Technika „Sleepy Pickle” pozwala na modyfikację modeli AI nawet po ich dystrybucji, co utrudnia wykrycie zagrożeń.
- Ataki specyficzne dla AI: Nowe metody, takie jak iniekcja promptów, jailbreaking czy ekstrakcja danych treningowych, pozwalają ominąć zabezpieczenia i uzyskać dostęp do wrażliwych informacji.
Główne wektory ataków na systemy AI
Ataki na AI mogą występować na różnych etapach – od zbierania danych i trenowania modeli po ich wdrożenie i użytkowanie. Raport wskazuje na następujące metody:
- Jailbreaking: Polega na omijaniu zabezpieczeń modelu poprzez specjalnie spreparowane zapytania. Nawet zaawansowane modele, takie jak DeepSeek R1, pozostają podatne na proste jailbreaki.
- Pośrednia iniekcja promptów: Atakujący manipulują danymi wejściowymi (np. poprzez złośliwe pliki PDF), co prowadzi do generowania niepożądanych wyników. Ta metoda omija tradycyjne zabezpieczenia.
- Ekstrakcja i zatruwanie danych treningowych: Badacze wykazali, że chatboty można zmusić do ujawnienia fragmentów danych treningowych. Zatrucie nawet 0,01% dużych zbiorów danych, takich jak LAION-400M czy COYO-700M, może wpłynąć na działanie modelu, a koszt takiego ataku to zaledwie ok. 60 USD.
Raport zwraca uwagę na niepokojąco wysoką skuteczność ataków – w przypadku modeli takich jak DeepSeek R1 czy Llama 2, osiągano 100% skuteczności. Pojawiają się też nowe zagrożenia, np. głosowe jailbreaki skierowane na multimodalne modele AI.
Kluczowe wnioski z badań Cisco
- Automatyczne jailbreakingi: Metoda Tree of Attacks with Pruning (TAP) pozwoliła ominąć zabezpieczenia GPT-4 i Llama 2.
- Ryzyko dostosowywania modeli: Fine-tuning może osłabiać wbudowane zabezpieczenia. Dostosowane wersje modeli były 3-krotnie bardziej podatne na jailbreaking i 22-krotnie częściej generowały szkodliwe treści.
- Wycieki danych treningowych: Proste metody dekompozycji pozwoliły odtworzyć fragmenty artykułów z danych treningowych, co stanowi zagrożenie dla poufności informacji.
- Niska cena zatruwania danych: Zaledwie 60 USD wystarczy, aby zatruć 0,01% dużego zbioru danych i wpłynąć na działanie modelu.
AI jako narzędzie cyberprzestępców
Sztuczna inteligencja nie tylko jest celem ataków, ale też narzędziem w rękach przestępców. Raport wskazuje na rosnącą skuteczność ataków opartych na AI, takich jak phishing czy klonowanie głosu. Narzędzia takie jak DarkGPT umożliwiają generowanie spersonalizowanych ataków nawet osobom o niskich umiejętnościach.
Jak zabezpieczyć AI – rekomendacje Cisco
- Zarządzanie ryzykiem w całym cyklu życia AI: Od pozyskiwania danych po monitorowanie modeli – każdy etap wymaga zabezpieczeń.
- Wykorzystanie sprawdzonych praktyk cyberbezpieczeństwa: Kontrola dostępu, zarządzanie uprawnieniami i ochrona przed utratą danych to podstawa.
- Koncentracja na newralgicznych obszarach: Łańcuchy dostaw i aplikacje zewnętrzne wymagają szczególnej uwagi.
- Szkolenia dla pracowników: Świadomość zagrożeń i odpowiedzialne korzystanie z AI to klucz do ograniczenia ryzyka.
Perspektywy na przyszłość
Wraz z rozwojem AI będą ewoluować zagrożenia. Firmy i rządy zaczynają wprowadzać regulacje mające na celu zwiększenie bezpieczeństwa. Organizacje, które połączą innowacyjność z dbałością o bezpieczeństwo, będą najlepiej przygotowane na nadchodzące wyzwania.