Yubei Chen, współzałożyciel Aizip Inc – wywiad
Kim jest Yubei Chen?
Yubei Chen to współzałożyciel firmy Aizip Inc, która specjalizuje się w tworzeniu najmniejszych i najbardziej wydajnych modeli sztucznej inteligencji na świecie. Pełni również funkcję adiunkta na wydziale Inżynierii Elektrycznej i Komputerowej na Uniwersytecie Kalifornijskim w Davis. Jego badania skupiają się na połączeniu neuronauki obliczeniowej i głębokiego uczenia bez nadzoru (samouczącego się), co pozwala lepiej zrozumieć zasady rządzące uczeniem reprezentacji w mózgu i maszynach oraz pogłębia wiedzę na temat statystyki sygnałów naturalnych.
Doświadczenie zawodowe
Zanim dołączył do UC Davis, Chen odbywał studia podoktoranckie pod kierunkiem prof. Yanna LeCuna w NYU Center for Data Science (CDS) oraz w Meta Fundamental AI Research (FAIR). Doktorat obronił w Redwood Center for Theoretical Neuroscience oraz Berkeley AI Research (BAIR) na UC Berkeley, gdzie jego opiekunem naukowym był prof. Bruno Olshausen.
Czym zajmuje się Aizip?
Aizip tworzy wysoce wydajne rozwiązania AI zoptymalizowane dla urządzeń brzegowych, oferując kompaktowe modele do przetwarzania obrazu, dźwięku, szeregów czasowych, języka oraz fuzji danych z sensorów. Ich produkty umożliwiają rozpoznawanie twarzy i obiektów, wykrywanie słów kluczowych, analizę sygnałów EKG/EEG oraz działanie chatbotów bez konieczności połączenia z chmurą, dzięki technologii TinyML. Dzięki platformie Aizipline, nazywanej „nanofabryką AI”, firma przyspiesza proces tworzenia modeli, wykorzystując modele bazowe i generatywne, dążąc do pełnej automatyzacji projektowania AI. Seria Gizmo, obejmująca małe modele językowe (300M–2B parametrów), wspiera szeroką gamę urządzeń, wprowadzając inteligentne funkcje na urządzenia brzegowe.
Wpływ pracy z Yannem LeCunem i badań na UC Berkeley
Pytanie: Pracowałeś z Yannem LeCunem w NYU i Meta FAIR. Jak ta współpraca oraz badania na UC Berkeley wpłynęły na Twoje podejście do tworzenia rozwiązań AI w praktyce?
W Berkeley moja praca opierała się na ścisłej analizie naukowej i matematycznej precyzji. Moje badania doktoranckie, łączące inżynierię elektryczną, informatykę i neuronaukę obliczeniową, koncentrowały się na zrozumieniu systemów AI z perspektywy „białej skrzynki” – czyli opracowywaniu metod odkrywania ukrytych struktur danych i modeli uczenia maszynowego. Pracowałem nad tworzeniem interpretowalnych, wysokowydajnych modeli AI oraz technik wizualizacji, które pomagają „otwierać” czarne skrzynki systemów sztucznej inteligencji.
W Meta FAIR nacisk położony był na inżynierię systemów AI, aby osiągać najwyższą wydajność na dużą skalę. Dzięki dostępowi do światowej klasy zasobów obliczeniowych badałem granice uczenia samouczącego się i przyczyniłem się do rozwoju tzw. „modeli świata” – systemów AI, które uczą się na podstawie danych i potrafią wyobrażać sobie różne środowiska. To połączenie doświadczeń – naukowej precyzji w Berkeley i skalowania opartego na inżynierii w Meta – dało mi kompleksowe spojrzenie na rozwój AI. Pokazało, jak ważne są zarówno teoretyczne zrozumienie, jak i praktyczna implementacja przy tworzeniu rozwiązań AI dla rzeczywistych zastosowań.
Neuronauka a rozwój modeli AI
Pytanie: Twoja praca łączy neuronaukę obliczeniową z AI. W jaki sposób wnioski z neuronauki wpływają na sposób, w jaki tworzysz modele AI?
W neuronauce obliczeniowej badamy, jak mózg przetwarza informacje, mierząc jego reakcje na różne bodźce – podobnie jak analizujemy modele AI, aby zrozumieć ich wewnętrzne mechanizmy. Na początku kariery opracowałem techniki wizualizacji do analizy osadzeń słów, rozkładając np. słowo „jabłko” na składowe znaczeniowe, takie jak „owoc” i „technologia”. Później tę metodę rozszerzyłem na bardziej złożone modele, jak transformery i duże modele językowe, co pomogło odkryć, w jaki sposób przetwarzają i przechowują wiedzę.
Te metody są podobne do technik stosowanych w neuronauce, takich jak użycie elektrod lub fMRI do badania aktywności mózgu. Analiza wewnętrznych reprezentacji modelu AI pozwala zrozumieć jego strategie wnioskowania i wykryć emergentne właściwości, np. neurony pojęciowe aktywujące się dla konkretnych idei (jak w przypadku cechy mostu Golden Gate, którą Anthropic odkrył w modelu Claude). Takie podejście jest dziś szeroko stosowane w branży, ponieważ zwiększa interpretowalność i umożliwia praktyczne interwencje, np. usuwanie błędów z modeli. Dzięki inspiracji neuronauką AI staje się bardziej zrozumiała, godna zaufania i wydajna.
Powstanie Aizip
Pytanie: Co zainspirowało Cię do współzałożenia Aizip? Jak przebiegała droga od pomysłu do powstania firmy?
Jako badacz podstaw AI większość mojej pracy miała charakter teoretyczny, ale chciałem połączyć badania z praktycznymi zastosowaniami. Założyłem Aizip, aby wprowadzać innowacje AI do rzeczywistych zastosowań, szczególnie w środowiskach o ograniczonych zasobach. Zamiast tworzyć duże modele bazowe, skupiliśmy się na najmniejszych i najbardziej wydajnych modelach AI, zoptymalizowanych dla urządzeń brzegowych.
Wszystko zaczęło się od kluczowej obserwacji: podczas gdy branża AI skupiała się na skalowaniu w górę, rzeczywiste zastosowania często wymagały lekkich i wydajnych modeli. Dostrzegliśmy szansę, aby zapoczątkować nowy kierunek, łączący naukową precyzję z praktycznym wdrożeniem. Dzięki wykorzystaniu uczenia samouczącego się i kompaktowych architektur modeli, Aizip dostarcza rozwiązania AI działające efektywnie na urządzeniach brzegowych, otwierając nowe możliwości dla systemów wbudowanych, IoT i nie tylko.
Dlaczego małe modele AI?
Pytanie: Aizip specjalizuje się w małych modelach AI dla urządzeń brzegowych. Jaką lukę na rynku dostrzegliście, decydując się na ten kierunek?
Branża AI skupiała się głównie na zwiększaniu modeli, ale rzeczywiste zastosowania często wymagają czegoś przeciwnego – wysokiej wydajności, niskiego zużycia energii i minimalnych opóźnień. Wiele obecnych modeli AI jest zbyt zasobożernych, aby działać na małych urządzeniach. Dostrzegliśmy lukę na rynku – brak rozwiązań AI, które zapewniałyby wysoką wydajność przy ekstremalnych ograniczeniach zasobów.
Zrozumieliśmy, że nie każda aplikacja AI wymaga ogromnych modeli, a oparcie się wyłącznie na nich nie byłoby skalowalne. Zamiast tego skupiamy się na optymalizacji algorytmów, aby osiągać maksymalną wydajność przy zachowaniu dokładności. Projektując modele AI dostosowane do zastosowań brzegowych – czy to w inteligentnych sensorach, wearables czy automatyce przemysłowej – umożliwiamy działanie AI tam, gdzie tradycyjne modele byłyby niepraktyczne. To podejście sprawia, że AI jest bardziej dostępna, skalowalna i energooszczędna, otwierając nowe możliwości innowacji poza chmurą.
Małe modele językowe (SLM) a duże modele
Pytanie: Aizip jest pionierem w rozwoju małych modeli językowych (SLM). Jak Twoim zdaniem SLM konkurują lub uzupełniają większe modele, takie jak GPT-4?
SLM i duże modele, jak GPT-4, niekoniecznie konkurują, ponieważ służą różnym potrzebom. Duże modele są potężne pod względem generalizacji i złożonego rozumowania, ale wymagają ogromnych zasobów obliczeniowych. SLM są zaprojektowane dla wydajności i działania na urządzeniach o niskim poborze mocy. Uzupełniają duże modele, umożliwiając funkcje AI w zastosowaniach, gdzie liczą się ograniczenia mocy obliczeniowej, opóźnienia i koszty – np. w urządzeniach IoT, wearables czy automatyce przemysłowej. W miarę rozwoju AI widzimy hybrydowe podejście, w którym duże modele chmurowe obsługują złożone zapytania, a SLM zapewniają inteligencję w czasie rzeczywistym na urządzeniach brzegowych.
Wyzwania w optymalizacji AI dla urządzeń brzegowych
Pytanie: Jakie są największe wyzwania techniczne w tworzeniu modeli AI na tyle wydajnych, by działały na urządzeniach o niskim poborze mocy?
Jednym z podstawowych wyzwań jest brak pełnego teoretycznego zrozumienia, jak działają modele AI. Bez solidnych podstaw teoretycznych optymalizacja często opiera się na metodach empirycznych, co ogranicza poprawę wydajności. Ponadto ludzkie uczenie się odbywa się na różne sposoby, których obecne paradygmaty uczenia maszynowego nie odzwierciedlają w pełni, przez co trudno jest projektować modele naśladujące ludzką efektywność.
Z perspektywy inżynieryjnej, działanie AI w ekstremalnych ograniczeniach wymaga innowacyjnych rozwiązań w kompresji modeli, kwantyzacji i projektowaniu architektur. Kolejnym wyzwaniem jest tworzenie modeli, które mogą adaptować się do różnych urządzeń i środowisk, zachowując przy tym niezawodność. W miarę jak AI coraz częściej współdziała ze światem fizycznym przez IoT i sensory, rośnie znaczenie naturalnych interfejsów – takich jak głos, gesty czy inne niestandardowe metody wprowadzania danych. AI na urządzeniach brzegowych to redefinicja sposobu, w jaki użytkownicy wchodzą w interakcje z technologią.
Współpraca Aizip z firmami takimi jak SoftBank
Pytanie: Czy możesz podzielić się szczegółami dotyczącymi współpracy Aizip z firmami takimi jak SoftBank?
Ostatnio nawiązaliśmy współpracę z SoftBank nad projektem akwakultury, który zdobył nagrodę CES Innovation Award – jesteśmy z niego szczególnie dumni. Opracowaliśmy wydajny model AI działający na urządzeniach brzegowych, służący do liczenia ryb w hodowlach. To rozwiązanie odpowiada na kluczowe wyzwanie w rybołówstwie, które wpływa na zrównoważony rozwój, marnowanie żywności i opłacalność. Branża ta była oporna na adopcję AI ze względu na niestabilne zasilanie i łączność na morzu, co uniemożliwiało użycie rozwiązań chmurowych.
Aby rozwiązać ten problem, stworzyliśmy system działający lokalnie. Połączyliśmy symulacje grafiki komputerowej SoftBanku (do generowania danych treningowych) z naszymi kompaktowymi modelami AI, tworząc wysoce dokładne rozwiązanie działające na smartfonach. W testach podwodnych osiągnęliśmy 95% skuteczności rozpoznawania, znacząco poprawiając dokładność liczenia ryb. Dzięki temu hodowcy mogą optymalizować warunki przechowywania, decydować, czy ryby powinny być transportowane żywe czy mrożone, oraz wykrywać potencjalne choroby.
Ten przełom zwiększa efektywność, obniża koszty i redukuje zależność od pracy manualnej. Pokazuje też, jak AI może realnie wpływać na rozwiązanie problemów w praktyce.
AI Nanofactory – automatyzacja rozwoju modeli AI
Pytanie: Aizip wprowadziło koncepcję „AI Nanofactory”. Czy możesz wyjaśnić, co to oznacza i jak automatyzuje rozwój modeli AI?
AI Nanofactory to nasze wewnętrzne narzędzie do automatyzacji projektowania AI, inspirowane Electronic Design Automation (EDA) w produkcji półprzewodników. Wczesne etapy rozwoju każdej nowej technologii wymagają dużego nakładu pracy manualnej, więc automatyzacja jest kluczowa, aby przyspieszyć postęp i skalować rozwiązania.
Zamiast używać AI tylko do przyspieszania innych branż, zadaliśmy pytanie: czy AI może przyspieszyć swój własny rozwój? AI Nanofactory automatyzuje każdy etap tworzenia modelu – od przetwarzania danych, przez projektowanie architektury, selekcję modelu, trening, kwantyzację, wdrożenie, aż po debugowanie. Dzięki wykorzystaniu AI do optymalizacji samej siebie skróciliśmy średni czas rozwoju nowych modeli 10-krotnie. W niektórych przypadkach nawet ponad 1000-krotnie – model, który kiedyś wymagał roku pracy, teraz można stworzyć w kilka godzin.
Dodatkowo ta automatyzacja sprawia, że rozwiązania AI są opłacalne dla szerokiego zakresu zastosowań, zwiększając dostępność i skalowalność wdrożeń.
Przyszłość edge AI w ciągu najbliższych 5 lat
Pytanie: Jak Twoim zdaniem będzie ewoluować edge AI w ciągu najbliższych 5 lat?
Edge AI ma szansę zrewolucjonizować interakcję z technologią, podobnie jak smartfony zmieniły dostęp do internetu. Obecnie większość aplikacji AI działa w chmurze, ale to się zmienia, w miarę jak AI przenosi się bliżej sensorów i urządzeń współdziałających ze światem fizycznym. Ta zmiana podkreśla kluczową potrzebę wydajnego przetwarzania w czasie rzeczywistym na urządzeniach brzegowych.
W ciągu najbliższych pięciu lat edge AI umożliwi bardziej naturalne interakcje człowiek-komputer, takie jak rozpoznawanie głosu i gestów, co zmniejszy zależność od tradycyjnych interfejsów, jak klawiatura czy ekran dotykowy. AI będzie też coraz głębiej osadzona w codziennym otoczeniu – inteligentnych domach czy automatyce przemysłowej – umożliwiając podejmowanie decyzji w czasie rzeczywistym.
Kolejnym trendem będzie rosnąca autonomia systemów edge AI. Dzięki postępom w automatyzacji (takiej jak AI Nanofactory) modele staną się bardziej samodzielne, redukując potrzebę interwencji człowieka we wdrażaniu i utrzymaniu. To otworzy nowe możliwości w branżach takich jak opieka zdrowotna, motoryzacja czy rolnictwo.
Nadchodzące produkty Aizip
Pytanie: Nad jakimi nowymi urządzeniami z AI pracuje Aizip? Które z nich najbardziej Cię ekscytują?
Rozwijamy nowe zastosowania naszych modeli w różnych branżach, a jednym z najbardziej ekscytujących jest AI Agent dla sektora motoryzacyjnego. Rośnie zainteresowanie, szczególnie wśród chińskich producentów samochodów, tworzeniem asystentów głosowych opartych na modelach językowych, które przypominałyby ChatGPT we wnętrzu pojazdu. Wyzwaniem jest to, że obecne asystenty wciąż polegają na chmurze, zwłaszcza w przypadku płynnych, naturalnych dialogów. Tylko podstawowe komendy (np. „włącz klimatyzację” lub „otwórz bagażnik”) działają lokalnie w pojeździe, a ich sztywna forma może rozpraszać kierowców, jeśli nie pamiętają dokładnych poleceń.
Stworzyliśmy serię ultra-wydajnych agentów AI o nazwie Gizmo, które są już stosowane w różnych branżach, a teraz pracujemy nad ich wdrożeniem jako „współpilotów” w pojazdach. Gizmo rozumie intencje w bardziej subtelny sposób i może wykonywać polecenia w formie swobodnej konwersacji. Na przykład agent może dostosować temperaturę w kabinie, gdy kierowca powie „jest mi zimno”, albo odpowiedzieć na pytanie „Jutro jadę do Bostonu, co mam na siebie włożyć?”, sprawdzając pogodę i sugerując strój.
Ponieważ działa lokalnie i nie wymaga chmury, agent pozostaje funkcjonalny w strefach bez zasięgu – np. w tunelach, górach czy na obszarach wiejskich. Zwiększa też bezpieczeństwo, pozwalając kierowcy na pełną kontrolę głosową bez odrywania uwagi od drogi. Przy okazji warto wspomnieć, że pracujemy też nad modelem AI do karaoke w samochodach i głośnikach Bluetooth, który działa lokalnie. W czasie rzeczywistym usuwa wokale z dowolnego utworu, tworząc wersję karaoke. Poza ułatwianiem bezpiecznej jazdy chcemy też sprawić, by była bardziej przyjemna.
To właśnie takie rozwiązania – te, które realnie wpływają na codzienne życie ludzi – są dla nas najważniejsze.
Podsumowanie
Aizip tworzy ultra-wydajne rozwiązania AI zoptymalizowane dla urządzeń brzegowych, oferując kompaktowe modele do przetwarzania obrazu, dźwięku, szeregów czasowych, języka i fuzji danych z sensorów. Ich produkty umożliwiają rozpoznawanie twarzy i obiektów, wykrywanie słów kluczowych, analizę EKG/EEG oraz działanie chatbotów na urządzeniach, wykorzystując TinyML. Dzięki platformie Aizipline firma przyspiesza rozwój modeli, wykorzystując modele bazowe i generatywne, dążąc do pełnej automatyzacji projektowania AI. Seria Gizmo, obejmująca małe modele językowe (300M–2B parametrów), wspiera szeroką gamę urządzeń, wprowadzając inteligentne funkcje na urządzenia brzegowe.
D