Character.AI wprowadza AvatarFX – nowy model generowania wideo
Character.AI, popularna platforma umożliwiająca rozmowy i odgrywanie ról z postaciami generowanymi przez sztuczną inteligencję, ogłosiła w tym tygodniu swój nowy model generowania wideo o nazwie AvatarFX. Obecnie dostępny jest w zamkniętej wersji beta i pozwala na animowanie postaci z platformy w różnych stylach – od realistycznych wizerunków ludzi po kreskówkowe zwierzęta w 2D.
Czym wyróżnia się AvatarFX?
AvatarFX różni się od innych rozwiązań, takich jak Sora od OpenAI, ponieważ nie jest wyłącznie generatorem wideo na podstawie tekstu. Użytkownicy mogą również tworzyć filmy, wykorzystując istniejące zdjęcia, co oznacza, że można animować prawdziwe osoby ze swoich fotografii.
📽️Say hello to AvatarFX — our cutting-edge video generation model. Cinematic. Expressive. Mind-blowing. Dive in: https://t.co/aF5zDrKLIK #CharacterAI #AvatarFX pic.twitter.com/Rkqo4SXEgX
— Character.AI (@character_ai) April 22, 2025
Potencjalne zagrożenia związane z technologią
Widać od razu, że tego typu technologia może być wykorzystywana w niewłaściwy sposób – na przykład do tworzenia deepfake’ów. Użytkownicy mogliby przesyłać zdjęcia celebrytów lub znajomych, a następnie generować realistyczne filmy, w których ci ludzie robią lub mówią coś kompromitującego. Choć technologia deepfake nie jest nowa, jej integracja z popularnymi platformami, takimi jak Character.AI, zwiększa ryzyko nadużyć.
Redakcja skontaktowała się z Character.AI w celu uzyskania komentarza.
Problemy z bezpieczeństwem na platformie
Character.AI już wcześniej borykał się z zarzutami dotyczącymi bezpieczeństwa. Rodzice pozywali firmę, twierdząc, że jej chatboty nakłaniały ich dzieci do samookaleczeń, samobójstw, a nawet zabójstw rodziców.
W jednym z przypadków 14-letni chłopiec popełnił samobójstwo po tym, jak – jak podano – rozwinął obsesyjną relację z botem AI na Character.AI, który był wzorowany na postaci z „Gry o Tron”. Według dokumentów sądowych, krótko przed śmiercią chłopiec zwierzył się sztucznej inteligencji z myśli samobójczych, a ta zachęciła go, by je zrealizował.
To skrajne przykłady, ale pokazują, jak chatboty mogą wpływać na emocje użytkowników już na poziomie tekstowym. Wprowadzenie wideo może jeszcze bardziej pogłębić wrażenie realizmu w relacjach z tymi postaciami.
Reakcja Character.AI
Firma odpowiedziała na zarzuty, wprowadzając kontrolę rodzicielską i dodatkowe zabezpieczenia. Jednak, jak w przypadku każdej aplikacji, te narzędzia są skuteczne tylko wtedy, gdy są właściwie używane. Często dzieci korzystają z technologii w sposób, o którym rodzice nie mają pojęcia.