BrainChip ogłasza prezentację na Embedded Vision Summit 2025
LAGUNA HILLS, Kalifornia – BrainChip Holdings Ltd (ASX: BRN, OTCQX: BRCHF, ADR: BCHPY), pionier w dziedzinie ultra-niskoprądowej, cyfrowej, neuromorficznej sztucznej inteligencji, poinformował, że dr M. Anthony Lewis, dyrektor technologiczny firmy, wystąpi podczas Embedded Vision Summit. Wydarzenie odbędzie się w dniach 20–22 maja 2025 roku w Santa Clara w Kalifornii. To wiodąca konferencja dla specjalistów zajmujących się technologiami komputerowego widzenia i AI na urządzeniach brzegowych.
Prezentacja na temat efektywnych rozwiązań AI na urządzeniach brzegowych
Wystąpienie dra Lewisa, zatytułowane „Modele stanów przestrzennych a transformatory na skraju sieci: wybór architektury dla niskoprądowej AI”, będzie dotyczyć kompromisów i możliwości w projektowaniu modeli AI dla środowisk o ograniczonych zasobach energetycznych i obliczeniowych.
W trakcie sesji dr Lewis omówi, dlaczego modele stanów przestrzennych (SSM), w tym opracowane przez BrainChip Temporal Event-based Neural Networks (TENNs), oferują przewagę nad tradycyjnymi architekturami Transformer w zastosowaniach brzegowych. W przeciwieństwie do Transformerów, które wymagają energochłonnych operacji pamięciowych, SSM wykorzystują operacje tylko do odczytu, co zmniejsza pobór mocy i umożliwia stosowanie nowatorskich rodzajów pamięci. Dzięki mniejszej liczbie jednostek MAC (mnożenie-akumulacja) modele SSM są również bardziej energooszczędne i zajmują mniej miejsca na układzie. Prezentacja obejmie także metody migracji z modeli opartych na Transformerach (np. LLaMA) do SSM z zachowaniem dokładności przy znaczącej poprawie wydajności.
Pokazy technologii BrainChip na stoisku #716
Uczestnicy Summitu będą mogli odwiedzić stoisko BrainChip (nr 716), gdzie zaprezentowane zostaną najnowsze osiągnięcia firmy w dziedzinie Edge AI, w tym innowacje w przetwarzaniu języka na układzie, ultra-niskoprądowej inferencji oraz rozwiązaniach wykorzystujących technologię Akida.
„Modele stanów przestrzennych wyznaczają nowe standardy inteligencji brzegowej działającej w czasie rzeczywistym przy minimalnym zużyciu energii” – powiedział dr Lewis. „Podczas prezentacji pokażemy, jak BrainChip dostarcza skalowalne, wydajne i interaktywne rozwiązania AI dla najbardziej wymagających środowisk wbudowanych.”
Udział w wydarzeniu potwierdza pozycję BrainChip jako lidera w dynamicznie rozwijającej się dziedzinie strumieniowej AI brzegowej, zapewniającej wydajne przetwarzanie w zastosowaniach takich jak lotnictwo, motoryzacja, robotyka, elektronika użytkowa i urządzenia noszone.
O BrainChip Holdings Ltd (ASX: BRN, OTCQX: BRCHF, ADR: BCHPY)
BrainChip jest światowym liderem w dziedzinie brzegowego przetwarzania i uczenia AI na układzie scalonym. Flagowy procesor firmy, Akida™, to pierwsze w pełni cyfrowe, neuromorficzne rozwiązanie AI, które naśladuje pracę ludzkiego mózgu, analizując wyłącznie niezbędne dane z czujników i przetwarzając je z wyjątkową wydajnością, precyzją i oszczędnością energii.
Technologia Temporal Event-based Neural Networks (TENNs) opiera się na modelach stanów przestrzennych (SSM), wykorzystując ramy czasowo-zależne i sterowane zdarzeniami, idealne dla aplikacji strumieniowych w czasie rzeczywistym. Te innowacje umożliwiają wdrażanie niskoprądowej AI brzegowej w sektorach takich jak przemysł lotniczy, pojazdy autonomiczne, robotyka, przemysłowy IoT, urządzenia konsumenckie i wearables. BrainChip przesuwa granice inteligentnych obliczeń, zbliżając AI do czujników i czasu rzeczywistego.
Więcej informacji na stronie: www.brainchip.com
Śledź BrainChip w mediach społecznościowych:
Kontakt:
Media:
Mark Smith
JPR Communications
818-398-1424
Inwestorzy:
Tony Dawe
Dyrektor Globalnych Relacji Inwestorskich
tdawe@brainchip.com