Nowe laboratorium tworzy architekturę modelu przewyższającą obecne LLM, trenowaną na kartach graficznych do gier
Innowacyjna architektura AI bije rekordy wydajności, wykorzystując niedrogie karty graficzne
PALO ALTO, Kalifornia – Firma Fastino AI zaprezentowała przełomową architekturę modelu sztucznej inteligencji o nazwie „TLM” (Task-Specific Language Models). Model ten, opracowany przez ekspertów z Google DeepMind, Stanforda, Carnegie Mellon i Apple Intelligence, oferuje 99-krotnie szybsze wnioskowanie niż tradycyjne LLM i został wytrenowany przy użyciu kart graficznych do gier o wartości poniżej 100 000 dolarów.
Fastino ogłosił również pozyskanie 17,5 miliona dolarów w rundzie seedowej, którą prowadził Khosla Ventures – pierwszy inwestor OpenAI. Łączna suma finansowania firmy wynosi teraz 25 milionów dolarów. W rundzie udział wzięli także Insight Partners, Valor Equity Partners oraz znani aniołowie biznesu, w tym były CEO Docker Scott Johnston i CEO Weights & Biases Lukas Biewald.
Od dziś programiści mogą korzystać z API TLM, które obejmuje darmowy plan z limitem 10 000 zapytań miesięcznie. API jest dostosowane do konkretnych zadań, a pierwsze dostępne modele to:
- Podsumowywanie: Generowanie zwięzłych i dokładnych streszczeń długich lub chaotycznych tekstów, ułatwiających szybkie zrozumienie treści.
- Wywoływanie funkcji: Wydajny model przeznaczony dla systemów agentowych, umożliwiający precyzyjne i szybkie uruchamianie narzędzi – idealny do integracji LLM z procesami produkcyjnymi.
- Tekst na JSON: Konwersja nieustrukturyzowanego tekstu na gotowy do użycia JSON, ułatwiająca integrację z systemami.
- Redakcja danych osobowych (PII): Automatyczne usuwanie wrażliwych informacji, z możliwością definiowania własnych typów encji.
- Klasyfikacja tekstu: Model zero-shot do etykietowania, wyposażony w zaawansowane zabezpieczenia, takie jak wykrywanie spamu, toksyczności czy intencji.
- Cenzura wulgaryzmów: Identyfikacja i usuwanie nieodpowiedniego języka, zapewniające zgodność z zasadami marki.
- Ekstrakcja informacji: Wyodrębnianie danych (np. encji, atrybutów) z nieuporządkowanego tekstu, wspierające przetwarzanie dokumentów czy analizę zapytań.
„Założyliśmy tę firmę po tym, jak nasz poprzedni startup zbankrutował przez wysokie koszty infrastruktury AI. W pewnym momencie wydawaliśmy więcej na modele językowe niż na cały zespół. To uświadomiło nam, że ogólne LLM są przewymiarowane dla większości zadań. Dlatego stworzyliśmy modele dopasowane do potrzeb programistów” – powiedział Ash Lewis, CEO i współzałożyciel Fastino. „Nasze modele są szybsze, dokładniejsze i znacznie tańsze w trenowaniu, a przy tym przewyższają flagowe rozwiązania w konkretnych zastosowaniach.”
Wytrenowane na kartach graficznych NVIDIA za mniej niż 100 000 dolarów, modele TLM mogą działać nawet na słabszym sprzęcie, takim jak procesory czy karty do gier. Mimo że są znacznie mniejsze niż obecne modele branżowe (liczące biliony parametrów), zapewniają najlepszą na rynku dokładność i są 99,67 razy szybsze w wnioskowaniu. Ich specjalistyczna architektura sprawdza się szczególnie dobrze w ściśle zdefiniowanych zadaniach.
„Duże firmy korzystające z zaawansowanych modeli zazwyczaj skupiają się na wąskim zakresie zadań” – zauważył Jon Chu, Partner w Khosla Ventures. „Technologia Fastino pozwala przedsiębiorstwom tworzyć modele o lepszej wydajności niż najnowocześniejsze rozwiązania, dostosowane do ich konkretnych potrzeb. Są one na tyle lekkie, że działają nawet na CPU, oferując przy tym gwarancję niskich opóźnień. To otwiera nowe możliwości dla generatywnej AI.”
Fastino odchodzi od branżowego standardu rozliczania za tokeny, wprowadzając abonament miesięczny. Dzięki temu programiści mają stały koszt dostępu do pełnej gamy modeli TLM. Klienci korporacyjni mogą wdrażać modele w swojej chmurze prywatnej (VPC), centrach danych lub na urządzeniach brzegowych, zachowując pełną kontrolę nad danymi.
„Programiści AI nie potrzebują modelu trenowanego na trylionach nieistotnych danych – potrzebują narzędzia dopasowanego do konkretnego zadania” – podkreślił George Hurn-Maloney, COO i współzałożyciel Fastino. „Dlatego tworzymy lekkie, precyzyjne modele z przejrzystą ceną miesięczną i darmowym planem, aby ułatwić integrację bez kompromisów.”
Więcej informacji o Fastino i jego modelach można znaleźć na stronie www.fastino.ai.
O Fastino
Fastino to firma AI z Palo Alto w Kalifornii, tworząca specjalistyczne modele językowe (TLM) pod kątem szybkości, dokładności i przewidywalności kosztów. Założona przez ekspertów z Google DeepMind i Apple, dostarcza rozwiązania przewyższające wydajnością ogólne LLM w zastosowaniach biznesowych, przy znacznie niższych kosztach obliczeniowych.
Kontakt
Dla mediów:
onboard@sbscomms.com