Newsy AI
17 maja, 2025

Stan bezpieczeństwa AI w 2025 r.: kluczowe wnioski z raportu Cisco

Bezpieczeństwo AI w 2025 roku – kluczowe wnioski z raportu Cisco W miarę jak coraz więcej firm wdraża sztuczną inteligencję, zrozumienie związanych z nią zagrożeń bezpieczeństwa staje się kluczowe. AI zmienia branże i procesy pracy, ale jednocześnie wprowadza nowe wyzwania, które organizacje muszą rozwiązać. Zabezpieczenie systemów AI jest niezbędne, aby zachować zaufanie, chronić prywatność i […]
Stan bezpieczeństwa AI w 2025 r.: kluczowe wnioski z raportu Cisco

Bezpieczeństwo AI w 2025 roku – kluczowe wnioski z raportu Cisco

W miarę jak coraz więcej firm wdraża sztuczną inteligencję, zrozumienie związanych z nią zagrożeń bezpieczeństwa staje się kluczowe. AI zmienia branże i procesy pracy, ale jednocześnie wprowadza nowe wyzwania, które organizacje muszą rozwiązać. Zabezpieczenie systemów AI jest niezbędne, aby zachować zaufanie, chronić prywatność i zapewnić płynne działanie biznesu. W tym artykule przedstawiamy najważniejsze wnioski z raportu Cisco pt. „State of AI Security in 2025”, który analizuje obecny stan bezpieczeństwa AI i wskazuje, na co firmy powinny zwrócić uwagę w przyszłości.

Rosnące zagrożenia dla sztucznej inteligencji

Rok 2024 pokazał, że tempo wdrażania AI przewyższa możliwości wielu organizacji w zakresie jej zabezpieczania. Według raportu Cisco około 72% firm wykorzystuje AI w swoich procesach, ale tylko 13% czuje się w pełni przygotowanych, aby robić to bezpiecznie. Ta luka wynika głównie z obaw związanych z bezpieczeństwem, które są główną barierą dla szerszego zastosowania AI w przedsiębiorstwach. Co gorsza, AI wprowadza nowe typy zagrożeń, na które tradycyjne metody cyberbezpieczeństwa nie są w pełni przygotowane. W przeciwieństwie do konwencjonalnych systemów, AI generuje dynamiczne i adaptacyjne ataki, trudniejsze do przewidzenia. Raport wymienia kilka kluczowych zagrożeń:

  • Ataki na infrastrukturę AI: Infrastruktura AI stała się głównym celem hakerów. Przykładem jest atak na NVIDIA Container Toolkit, który umożliwił dostęp do systemów plików i uruchamianie złośliwego kodu. Podobnie framework Ray, używany do zarządzania GPU, padł ofiarą jednego z pierwszych realnych ataków na otwarte oprogramowanie AI.
  • Ryzyka w łańcuchu dostaw: Około 60% firm korzysta z otwartych komponentów AI, co zwiększa ryzyko ataków. Technika „Sleepy Pickle” pozwala na modyfikację modeli AI nawet po ich dystrybucji, co utrudnia wykrycie zagrożeń.
  • Ataki specyficzne dla AI: Nowe metody, takie jak iniekcja promptów, jailbreaking czy ekstrakcja danych treningowych, pozwalają ominąć zabezpieczenia i uzyskać dostęp do wrażliwych informacji.

Główne wektory ataków na systemy AI

Ataki na AI mogą występować na różnych etapach – od zbierania danych i trenowania modeli po ich wdrożenie i użytkowanie. Raport wskazuje na następujące metody:

  • Jailbreaking: Polega na omijaniu zabezpieczeń modelu poprzez specjalnie spreparowane zapytania. Nawet zaawansowane modele, takie jak DeepSeek R1, pozostają podatne na proste jailbreaki.
  • Pośrednia iniekcja promptów: Atakujący manipulują danymi wejściowymi (np. poprzez złośliwe pliki PDF), co prowadzi do generowania niepożądanych wyników. Ta metoda omija tradycyjne zabezpieczenia.
  • Ekstrakcja i zatruwanie danych treningowych: Badacze wykazali, że chatboty można zmusić do ujawnienia fragmentów danych treningowych. Zatrucie nawet 0,01% dużych zbiorów danych, takich jak LAION-400M czy COYO-700M, może wpłynąć na działanie modelu, a koszt takiego ataku to zaledwie ok. 60 USD.

Raport zwraca uwagę na niepokojąco wysoką skuteczność ataków – w przypadku modeli takich jak DeepSeek R1 czy Llama 2, osiągano 100% skuteczności. Pojawiają się też nowe zagrożenia, np. głosowe jailbreaki skierowane na multimodalne modele AI.

Kluczowe wnioski z badań Cisco

  • Automatyczne jailbreakingi: Metoda Tree of Attacks with Pruning (TAP) pozwoliła ominąć zabezpieczenia GPT-4 i Llama 2.
  • Ryzyko dostosowywania modeli: Fine-tuning może osłabiać wbudowane zabezpieczenia. Dostosowane wersje modeli były 3-krotnie bardziej podatne na jailbreaking i 22-krotnie częściej generowały szkodliwe treści.
  • Wycieki danych treningowych: Proste metody dekompozycji pozwoliły odtworzyć fragmenty artykułów z danych treningowych, co stanowi zagrożenie dla poufności informacji.
  • Niska cena zatruwania danych: Zaledwie 60 USD wystarczy, aby zatruć 0,01% dużego zbioru danych i wpłynąć na działanie modelu.

AI jako narzędzie cyberprzestępców

Sztuczna inteligencja nie tylko jest celem ataków, ale też narzędziem w rękach przestępców. Raport wskazuje na rosnącą skuteczność ataków opartych na AI, takich jak phishing czy klonowanie głosu. Narzędzia takie jak DarkGPT umożliwiają generowanie spersonalizowanych ataków nawet osobom o niskich umiejętnościach.

Jak zabezpieczyć AI – rekomendacje Cisco

  1. Zarządzanie ryzykiem w całym cyklu życia AI: Od pozyskiwania danych po monitorowanie modeli – każdy etap wymaga zabezpieczeń.
  2. Wykorzystanie sprawdzonych praktyk cyberbezpieczeństwa: Kontrola dostępu, zarządzanie uprawnieniami i ochrona przed utratą danych to podstawa.
  3. Koncentracja na newralgicznych obszarach: Łańcuchy dostaw i aplikacje zewnętrzne wymagają szczególnej uwagi.
  4. Szkolenia dla pracowników: Świadomość zagrożeń i odpowiedzialne korzystanie z AI to klucz do ograniczenia ryzyka.

Perspektywy na przyszłość

Wraz z rozwojem AI będą ewoluować zagrożenia. Firmy i rządy zaczynają wprowadzać regulacje mające na celu zwiększenie bezpieczeństwa. Organizacje, które połączą innowacyjność z dbałością o bezpieczeństwo, będą najlepiej przygotowane na nadchodzące wyzwania.

Kategorie
Podziel się

Nowe aplikacje ai

Asystent nauki AI do spersonalizowanej nauki i zrozumienia pojęć
Darmowe narzędzie AI do identyfikacji ras psów na podstawie zdjęć.
Rozwiązanie do planowania oparte na sztucznej inteligencji, umożliwiające zarządzanie rezerwacjami i płatnościami.
Platforma bez kodu umożliwiająca automatyzację przepływów pracy przy użyciu agentów AI.
Aplikacja internetowa do zarządzania wieloma witrynami klientów, z uwzględnieniem analiz.
Platforma wykorzystująca sztuczną inteligencję do udzielania kompleksowych odpowiedzi na pytania.

Wdrożymy dowolną automatyzację ai w twojej firmie.

ZLEĆ NAM TO!

Wdrożymy dla Ciebie tę automatyzację i otrzymasz szkolenie jak obsługiwać

  • Trwa kilka dni
  • Jednorazowa opłata 
  • Szkolenie z obsługi
szablony automatyzacji
Planeta AI 2025 
magic-wandmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram