Firmy masowo wdrażają AI, ale czy są świadome ryzyka?
Przedsiębiorstwa na całym świecie intensywnie wprowadzają rozwiązania oparte na sztucznej inteligencji, takie jak chatboty, generatory treści czy narzędzia wspomagające decyzje. Badania McKinsey pokazują, że aż 78% firm wykorzystuje AI przynajmniej w jednym obszarze działalności.
Ten pęd do implementacji jest zrozumiały – każdy widzi potencjalne korzyści. Jednak w tym pośpiechu wiele organizacji zapomina, że wszystkie technologie oparte na sieciach neuronowych, w tym obecne i przyszłe systemy generatywne, mają poważną wadę: są nieprzewidywalne i ostatecznie niekontrolowalne.
Niektóre firmy przekonały się o tym na własnej skórze. Pewien dealer Chevroleta, który wdrożył chatbota na swojej stronie, musiał zmierzyć się z sytuacją, gdy klient przekonał system do sprzedaży Chevroleta Tahoe za 1 dolara. Inny użytkownik poprosił tego samego bota o napisanie skryptu Python do równań dynamiki płynów – i otrzymał gotowe rozwiązanie. Po tych incydentach dealer szybko wyłączył chatbota.
Podobnie Air Canada przegrało sprawę w sądzie, gdy próbowało argumentować, że ich chatbot, który podał pasażerowi błędne informacje o zniżce pogrzebowej, jest "odrębnym podmiotem prawnym".
Ta nieprzewidywalność wynika z samej architektury dużych modeli językowych. Są one tak złożone, że nie sposób zrozumieć, jak dochodzą do konkretnych odpowiedzi ani przewidzieć ich wyników przed faktycznym wygenerowaniem odpowiedzi. Większość firm reaguje na ten problem, nie do końca go rozumiejąc.
Najprostszym rozwiązaniem jest ręczne sprawdzanie wyników AI, co działa, ale znacznie ogranicza potencjał technologii. Gdy sztuczna inteligencja pełni rolę asystenta – pomaga w pisaniu tekstów, protokołowaniu spotkań, streszczaniu dokumentów czy kodowaniu – przynosi jedynie umiarkowane korzyści. To za mało, by zrewolucjonizować gospodarkę.
Prawdziwe korzyści pojawią się, gdy przestaniemy używać AI jako asystenta, a zaczniemy przeprojektowywać całe procesy i systemy tak, by działały automatycznie bez ciągłego nadzoru człowieka. Na przykład w procesie udzielania kredytów: AI-asystent może przyspieszyć pracę urzędnika o 20-30%, ale automatyzacja całego procesu (z odpowiednimi zabezpieczeniami) może obniżyć koszty o ponad 90% i skrócić czas obsługi. To różnica między drobnymi ulepszeniami a prawdziwą transformacją.
Jak wdrażać AI w sposób niezawodny
Pełne wykorzystanie potencjału AI przy jednoczesnym ograniczeniu jej nieprzewidywalności wymaga połączenia zaawansowanych rozwiązań technicznych i strategicznego myślenia. Obecne metody oferują jedynie częściowe rozwiązania, każda z nich ma poważne ograniczenia.
Niektórzy próbują sterować zachowaniem AI poprzez subtelne wskazówki, które mają skłaniać system do określonych reakcji. Badacze z Anthropic pokazali, jak kruche jest to podejście – wzmacniając sztucznie tzw. "cechę Golden Gate Bridge" w modelu Claude, spowodowali, że system zaczął utożsamiać się z mostem. Eksperyment ujawnił, jak łatwo można zmienić działanie modelu i że każda taka ingerencja może poprawiać jedne aspekty, pogarszając inne.
Inne podejście to wykorzystanie AI do monitorowania innych systemów AI. Choć może to wychwycić niektóre błędy, dodaje złożoności i nie gwarantuje pełnej niezawodności. Bezpośrednie blokady, jak filtrowanie odpowiedzi zawierających określone słowa kluczowe, są skuteczne wobec znanych problemów, ale nie radzą sobie z nowymi, nieprzewidzianymi sytuacjami.
Skuteczniejszym rozwiązaniem jest budowa procesów zorientowanych na AI, które mogą działać autonomicznie, z nadzorem człowieka w strategicznych punktach. Na przykład AI nie powinno samodzielnie decydować o przyznaniu kredytu, ale może przeprowadzić wstępną analizę do weryfikacji przez człowieka. To działa, ale wymaga czujności ludzi i ogranicza potencjalne korzyści efektywnościowe.
Budowa przyszłościowych rozwiązań
Te częściowe rozwiązania wskazują kierunek bardziej kompleksowego podejścia. Największe korzyści osiągną te organizacje, które nie tylko dodają AI do istniejących procesów, ale całkowicie je przeprojektowują. Kluczowe jest jednak, by AI nigdy nie było ostatnim ogniwem w ważnych decyzjach.
Najpierw AI buduje powtarzalny proces, który daje spójne i przejrzyste wyniki. Następnie ludzie weryfikują ten proces, by zrozumieć jego działanie i odpowiedniość danych wejściowych. W końcu proces działa autonomicznie – bez użycia AI – z okresowymi przeglądami wyników przez ludzi.
Weźmy przykład branży ubezpieczeniowej. Tradycyjne podejście dodałoby asystentów AI do pomocy w ocenie szkód. Rewolucyjne podejście wykorzystałoby AI do stworzenia nowych narzędzi – jak analiza zdjęć szkód czy wykrywanie oszustw – i połączyłoby je w zautomatyzowany system o jasnych zasadach. Ludzie projektowaliby i nadzorowali system, zamiast przetwarzać każdą szkodę osobno.
To podejście utrzymuje ludzki nadzór w kluczowych momentach – przy projektowaniu i walidacji systemu. Pozwala na znaczną poprawę efektywności, eliminując ryzyko szkodliwych skutków nieprzewidywalności AI w poszczególnych przypadkach.
Na przykład AI może wskazać potencjalne wskaźniki zdolności kredytowej w danych transakcyjnych. Eksperci oceniają je pod kątem uczciwości i budują przejrzyste modele potwierdzające ich wartość predykcyjną.
Taki sposób tworzenia wyjaśnialnej AI stworzy wyraźną granicę między firmami, które używają AI powierzchownie, a tymi, które transformują swoje operacje. Te drugie będą miały przewagę konkurencyjną, oferując produkty i usługi po niedostępnych dla innych cenach.
W przeciwieństwie do "czarnych skrzynek", wyjaśnialne systemy AI zapewniają prawdziwy nadzór człowieka nad technologią, tworząc przyszłość, w której AI rzeczywiście wspiera ludzki potencjał, a nie tylko zastępuje pracę ludzi.