W kwietniu 2025 roku w jednej z moskiewskich kawiarni amerykańska blogerka Sasha zaprezentowała nietypową metodę płatności – za pomocą uśmiechu, wykorzystując system rozpoznawania twarzy. Nagranie szybko stało się viralem, zdobywając miliony wyświetleń i wzbudzając ogromne zainteresowanie na całym świecie.
Jak podaje Sberbank, największy rosyjski bank i twórca technologii płatności uśmiechem, liczba terminali z funkcją płatności biometrycznych w Rosji przekroczyła już milion urządzeń. To sprawia, że system ten jest jednym z największych na świecie. Sberbank aktywnie inwestuje w rozwój własnej, niezależnej od czynników zewnętrznych, ekosystemu płatności biometrycznych.
W pierwszym kwartale 2025 roku Rosjanie dokonali ponad 37,5 miliona transakcji na łączną kwotę blisko 30 miliardów rubli, korzystając z technologii biometrycznych. To znaczący wzrost w porównaniu z rokiem 2024, co potwierdza szybko rosnącą popularność tej usługi.
Dmitrij Małych, Wiceprezes Zarządu i Szef Bankowości Transakcyjnej Sberbanku, komentuje: „Rosja jest jednym z pionierów w dziedzinie płatności biometrycznych, a technologia ta zyskuje masowe zastosowanie. Wyniki pokazują przejście od etapu wczesnych innowacji do szerokiego wykorzystania – od pierwszych użytkowników do głównego nurtu. Zwykle takie rozwiązania potrzebują 3-4 lat, by się upowszechnić, ale my wprowadziliśmy system 'Uśmiech do Płatności’ już latem 2023 roku.”
Technologia rozwija się nie tylko w Moskwie i Petersburgu, ale także w innych regionach kraju. Zagraniczne media, m.in. z Czech i Polski, opisują rosyjskie płatności biometryczne jako przełom technologiczny. W przeciwieństwie do USA czy Chin, gdzie tego typu rozwiązania napotykają bariery prawne lub są mniej popularne, rosyjski system stanowi przykład udanej adaptacji i rozwoju innowacji.
W tym roku Rosja planuje dalsze upowszechnienie płatności biometrycznych oraz stworzenie zintegrowanej usługi cross-biometrycznej, która umożliwi klientom dowolnego banku dokonywanie zakupów za pomocą rozpoznawania twarzy.
# # #
Biuro prasowe
Mark Andreessen, znany inwestor venture capital, niedawno zwrócił uwagę na unikalne cechy swojego zawodu. Jego zdaniem, pomimo rozwoju sztucznej inteligencji, venture capital pozostanie domeną ludzi ze względu na potrzebę "niematerialnych" umiejętności – takich jak analiza psychologiczna. Andreessen mówi: "Często jesteś jak psycholog – oceniasz, jak ludzie reagują pod presją, jak zapobiec ich załamaniu, a nawet jak samemu zachować zdrowy rozsądek".
Te spostrzeżenia podkreślają ważny problem w fintechach i systemach płatności: choć AI rewolucjonizuje usługi finansowe, wciąż brakuje jej ludzkiej intuicji. Artykuł analizuje, dlaczego połączenie technologii z ludzką oceną sytuacji jest kluczowe, zwłaszcza w obszarach wymagających zrozumienia kontekstu – takich jak AML, ochrona konsumentów czy etyczne udzielanie pożyczek.
Andreessen porównuje inwestowanie do sztuki, podkreślając rolę intuicji – tej podświadomej umiejętności oceny sytuacji. W fintechach i płatnościach ta zdolność pozwala specjalistom na:
To właśnie te jakościowe, psychologiczne oceny, o których mówi Andreessen, pozostają poza zasięgiem obecnej AI.
AI świetnie radzi sobie z:
Jednak AI ma problemy z nowymi, niejednoznacznymi sytuacjami. Brakuje jej "analizy psychologicznej", o której mówi Andreessen. To istotne wyzwanie również z punktu widzenia regulacji – wymagają one przejrzystości, podczas gdy wiele modeli AI działa jak "czarne skrzynki".
Najskuteczniejsze rozwiązania będą łączyć analityczną moc AI z ludzkim zrozumieniem kontekstu. Przykłady:
Organizacje, które odniosą sukces, będą potrafiły:
Jak zauważa Andreessen, wartość "niematerialnych" umiejętności – intuicji, adaptacyjności, zrozumienia psychologicznego – będzie rosła wraz z upowszechnieniem AI. Firmy, które opanują tę hybrydową współpracę, zyskają przewagę w dostarczaniu zaawansowanych, bezpiecznych rozwiązań finansowych. Równie ważne będzie wbudowanie solidnych ram compliance, by sprostać oczekiwaniom regulatorów.
NEW YORK – Agencja ratingowa KBRA przypisała wstępne oceny 66 klasom certyfikatów hipotecznych z Citigroup Mortgage Loan Trust 2025-3 (CMLTI 2025-3). Jest to transakcja zabezpieczona papierami wartościowymi związanymi z kredytami hipotecznymi, których zabezpieczenie stanowią nieruchomości pierwotne i wtórne zajmowane przez właścicieli. Pulę bazową tworzy 365 kredytów hipotecznych o stałym oprocentowaniu (FRM) o łącznej wartości około 323,7 mln USD na dzień 1 maja 2025 r. W skład puli wchodzą zarówno kredyty nieagencyjne (61,4%), jak i kwalifikujące się do programu agencyjnego (38,6%). 41,7% kredytów pochodzi od PennyMac Loan Services, LLC, a 52,2% będzie obsługiwanych przez Fay Servicing, LLC.
KBRA zastosowała kompleksowe podejście do analizy, uwzględniając:
Szczegóły metodologii można znaleźć w dokumencie U.S. RMBS Rating Methodology.
Dostęp do ocen i powiązanych dokumentów:
Dodatkowe informacje na temat kluczowych czynników wpływających na ocenę, analizy wrażliwości oraz czynników ESG znajdują się w pełnym raporcie.
Szczegółowe źródła danych oraz metodologie są dostępne w Formularzu Ujawnień Informacji. Wyjaśnienie skali ratingowej można znaleźć tutaj.
Więcej informacji o zasadach i procedurach KBRA dostępnych jest na stronie www.kbra.com.
KBRA to jedna z wiodących agencji ratingowych, zarejestrowana w U.S. Securities and Exchange Commission jako NRSRO. Posiada również akredytacje w Europie, Wielkiej Brytanii, Kanadzie i innych jurysdykcjach.
Zespół analityczny:
Kontakt biznesowy:
Numer dokumentu: 1009501
Oprogramowanie stało się nieodłącznym elementem naszego codziennego życia. Wykorzystujemy je do zarządzania harmonogramem dnia, utrzymywania kontaktów z bliskimi, kontrolowania finansów oraz wykonywania obowiązków zawodowych. Jednak te same udogodnienia, które ułatwiają nam życie, są również wykorzystywane przez cyberprzestępców. W ostatnich latach szczególnie widoczne stały się skutki ataków hakerskich – paraliżowanie infrastruktury, wstrzymywanie działalności dużych firm, wycieki poufnych danych czy wymuszanie ogromnych okupów.
Sztuczna inteligencja (AI) otworzyła przed nami nowe możliwości w biznesie i codziennym życiu, ale jednocześnie dała nowe narzędzia cyberprzestępcom. Skala i złożoność ataków rosną z roku na rok. Rozwój technologii, takich jak sieci edge (wspierające autonomiczne pojazdy czy 6G), tworzy dodatkowe luki, które mogą być wykorzystane. Cyberbezpieczeństwo jest dziś kluczowe nie tylko dla ochrony obecnych systemów, ale także dla przyszłych innowacji. AI odgrywa tu fundamentalną rolę.
Podobnie jak pomaga atakującym, sztuczna inteligencja wzmacnia możliwości obrońców. Skala biznesu i złożoność sieci wymagają narzędzi, które mogą wspierać zespoły bezpieczeństwa. AI pozwala wykrywać, priorytetyzować i naprawiać luki w zabezpieczeniach, które wcześniej mogły umknąć uwadze. Dzięki precyzyjnemu wskazywaniu największych zagrożeń, zespoły mogą systematycznie zmniejszać ryzyko.
Poza aspektami technicznymi, AI w połączeniu z konsolidacją narzędzi bezpieczeństwa znacząco poprawia doświadczenia użytkowników. Zamiast korzystać z wielu skomplikowanych systemów, pracownicy mogą działać w intuicyjnym, konwersacyjnym interfejsie. Centralizacja pozwala monitorować całą sieć z jednego miejsca, co ułatwia planowanie i koordynację działań.
Tego typu usprawnienia są możliwe tylko dzięki AI i konsolidacji. Warto jednak pamiętać, że sama sztuczna inteligencja również może stać się celem ataków. Zabezpieczenie AI – zarówno w systemach ochrony, jak i narzędziach operacyjnych – musi być priorytetem.
Modele AI są coraz częściej atakowane poprzez manipulację danymi treningowymi czy wykorzystywanie luk w interakcjach. Przestępcy używają też deepfake'ów do omijania zabezpieczeń, a generatywna AI pomaga tworzyć perfekcyjne wiadomości phishingowe. Specjalistyczne narzędzia skanują sieci w poszukiwaniu luk na niespotykaną dotąd skalę. Dlatego firmy muszą podjąć konkretne kroki, aby zabezpieczyć swoje systemy AI.
Przede wszystkim należy ściśle kontrolować dostęp do usług i danych AI. Zero Trust Network Access (ZTNA) to kluczowy element nowoczesnych platform bezpieczeństwa. Bez odpowiedniej segmentacji firmy są narażone na ataki, w których hakerzy – np. poprzez wykradzione dane logowania – mogą swobodnie przemieszczać się po sieci. Zero Trust ogranicza dostęp do niezbędnych zasobów, minimalizując skutki ewentualnego naruszenia. Dodatkowo wykrywa nietypowe zachowania użytkowników, pozwalając na szybką reakcję.
ZTNA powinien być uzupełniony o inne zabezpieczenia dedykowane AI. Ważne jest kontrolowanie źródeł danych wykorzystywanych do trenowania modeli, aby uniknąć szkodliwych informacji. Równie istotna jest edukacja użytkowników, zwłaszcza że generatywne AI (jak ChatGPT) trafia do pracowników bez technicznego przygotowania. Firmy muszą ustalić zasady bezpiecznego korzystania z tych narzędzi, aby zapobiec przypadkowemu udostępnianiu poufnych danych, co w skrajnych przypadkach może nawet unieważnić patenty.
Sztuczna inteligencja to nie chwilowa moda, lecz fundament przyszłych innowacji. Aby w pełni z niej skorzystać, bezpieczeństwo musi stać się strategicznym priorytetem. Wdrożenie zintegrowanych systemów ochrony opartych na AI to pierwszy krok w tym kierunku. Dzięki temu organizacje mogą efektywniej wykorzystywać swoje zasoby, poprawiając operacyjność, jakość i rozwój.
Technologia chmurowa przeszła długą drogę i będzie wykorzystywana w zupełnie inny sposób przez kolejne pokolenia niż dwie dekady temu, gdy dopiero się rozwijała.
Podczas gdy rywalizacja w automatyzacji tworzenia oprogramowania nabiera tempa między OpenAI, Anthropic i innymi liderami AI, w tle rośnie kolejne wyzwanie: infrastruktura chmurowa. Nowe narzędzia, takie jak GPT-4.1 czy Codex CLI, znacząco przyspieszają proces tworzenia i wdrażania kodu. Startupy takie jak Reflection i Anysphere już korzystają z tych rozwiązań, skracając czas wdrożeń i obniżając koszty inżynieryjne.
Jednak choć AI zwiększa produktywność, tradycyjne rozwiązania chmurowe nie nadążają za dynamicznym charakterem generowanego przez sztuczną inteligencję kodu. Czynniki takie jak opóźnienia, wcześniej rezerwowana moc obliczeniowa czy regionalne limity przepustowości stają się przeszkodami, a nie wsparciem.
Oznacza to, że rozwój AI i infrastruktury chmurowej musi iść w parze. Sztuczna inteligencja wymaga ogromnych zasobów danych i działa w czasie rzeczywistym, dlatego usługi chmurowe muszą być równie zaawansowane, aby sprostać tym wymaganiom. Jak dokładnie postęp AI zależy od infrastruktury chmurowej?
Stała pojemność infrastruktury chmurowej sprawia, że nieprzewidywalne, wymagające modele AI często napotykają opóźnienia, gdy zasoby są ograniczone. Rozproszone regiony chmurowe mogą też powodować problemy z opóźnieniami i utrudniać przetwarzanie danych w czasie rzeczywistym. Dodatkowo rosnące koszty usług chmurowych, szczególnie dla zadań wymagających dużej mocy graficznej, podnoszą wydatki na projekty.
Te problemy stają się coraz bardziej widoczne, gdy modele AI przyspieszają rozwój oprogramowania – generując całe bazy kodu, uruchamiając symulacje i debugując w ciągu sekund. Dlatego przejście na zdecentralizowane rozwiązania chmurowe staje się priorytetem dla firm, które chcą uniknąć wolnych, rozdrobnionych lub ograniczonych systemów.
Chmura to już nie tylko sposób dostarczania aplikacji cyfrowych i narzędzi AI – stała się aktywnym uczestnikiem procesu rozwoju. Coraz więcej firm dostrzega zalety chmury obliczeniowej, ponieważ umożliwia zespołom współpracę w czasie rzeczywistym i automatyzację procesów bez konieczności czekania na fizyczną infrastrukturę. Ta elastyczność pozwala szybciej reagować na zmiany rynkowe i wyprzedzać konkurencję.
Zaawansowane systemy chmurowe wykorzystują wirtualne zasoby obliczeniowe, eliminując potrzebę dużych inwestycji w sprzęt i umożliwiając firmom płacenie tylko za to, z czego korzystają. Automatyczne skalowanie i optymalizacja zasobów zmniejszają marnotrawstwo, zapewniając efektywne wykorzystanie budżetu przy zachowaniu wydajności i geograficznej elastyczności.
Projektowanie odpowiedniej infrastruktury chmurowej to kluczowe wyzwanie dla organizacji migrujących do chmury – niezależnie od tego, czy przechodzą z własnych środowisk, czy zmieniają dostawców. Wybór właściwego providera i integracja z istniejącymi systemami są więc kluczowe. Aby odnieść sukces, firmy powinny dokładnie przeanalizować swoje obciążenia, potrzeby skalowalności i cele, współpracując ściśle z ekspertami od chmury.
Skoro developerzy wykorzystują AI do tworzenia całych aplikacji w kilka godzin, zasoby obliczeniowe muszą być dostępne natychmiast. Tutaj wkracza superchmura – koncept brzmiący futurystycznie, ale technologia, która już się upowszechnia. Superchmura oferuje jednolitą warstwę łączącą różne środowiska chmurowe, pomagając zespołom AI uniknąć typowych wąskich gardeł, takich jak ograniczona dostępność mocy obliczeniowej czy rozproszone dane. Dzięki integracji zasobów od różnych dostawców zapewnia spójną wydajność.
Pozwala to efektywniej szkolić i wdrażać modele AI bez opóźnień spowodowanych ograniczeniami infrastruktury. Rezultatem jest szybsza innowacja, optymalne wykorzystanie zasobów i możliwość skalowania obciążeń między platformami bez uzależnienia od jednego dostawcy chmury.
Różnica między superchmurą a tradycyjnymi systemami chmurowymi polega na odejściu od uzależnienia od jednego providera. Tradycyjne rozwiązania mogą spowalniać postęp z powodu ograniczonego dostępu do GPU, skomplikowanych procesów żądania zasobów czy regionalnej dostępności. Tymczasem superchmura zapewnia większą elastyczność i pulę zasobów z wielu środowisk, umożliwiając zespołom AI szybki dostęp do tego, czego potrzebują, bez ograniczeń pojemnościowych czy lokalizacyjnych jednego dostawcy.
Ponieważ rozwój wspierany przez AI skraca czas między pomysłem a wdrożeniem, infrastruktura chmurowa musi nadążyć za tym tempem, a nie je spowalniać. Zaleta superchmury polega na rozwiązaniu problemów, z którymi tradycyjna chmura sobie nie radzi – sztywnych modeli alokacji zasobów, limitów regionalnych czy wąskich gardeł sprzętowych. Te ograniczenia często nie pasują do szybkiego, iteracyjnego charakteru rozwoju napędzanego AI, gdzie zespoły muszą eksperymentować, szkolić i skalować modele w ekspresowym tempie.
Dopasowując infrastrukturę chmurową do tempa i wymagań AI, firmy mogą wyeliminować tradycyjne opóźnienia hamujące innowacje. Gdy chmura nadąża za workflow, łatwiej przejść od fazy testów do wdrożenia bez czekania na przydział zasobów czy walki z limitami pojemności.
Zgodność między AI a chmurą umożliwia szybsze iteracje, krótszy czas wprowadzenia na rynek i bardziej responsywne cykle aktualizacji. Ostatecznie pozwala to organizacjom efektywniej dostarczać produkty i usługi oparte na AI, zyskując znaczącą przewagę w dynamicznym cyfrowym krajobrazie.
Technologia AI rozwija się błyskawicznie, dlatego firmy powinny modernizować swoją infrastrukturę proaktywnie, aby pozostać konkurencyjne, elastyczne i odporne. Strategiczna transformacja chmurowa to dziś kluczowy imperatyw biznesowy, a nie drugorzędna kwestia. Opóźnianie tej zmiany grozi utratą zdolności do skutecznego skalowania.
LAGUNA HILLS, Kalifornia – BrainChip Holdings Ltd (ASX: BRN, OTCQX: BRCHF, ADR: BCHPY), pionier w dziedzinie ultra-niskoprądowej, cyfrowej, neuromorficznej sztucznej inteligencji, poinformował, że dr M. Anthony Lewis, dyrektor technologiczny firmy, wystąpi podczas Embedded Vision Summit. Wydarzenie odbędzie się w dniach 20–22 maja 2025 roku w Santa Clara w Kalifornii. To wiodąca konferencja dla specjalistów zajmujących się technologiami komputerowego widzenia i AI na urządzeniach brzegowych.
Wystąpienie dra Lewisa, zatytułowane „Modele stanów przestrzennych a transformatory na skraju sieci: wybór architektury dla niskoprądowej AI”, będzie dotyczyć kompromisów i możliwości w projektowaniu modeli AI dla środowisk o ograniczonych zasobach energetycznych i obliczeniowych.
W trakcie sesji dr Lewis omówi, dlaczego modele stanów przestrzennych (SSM), w tym opracowane przez BrainChip Temporal Event-based Neural Networks (TENNs), oferują przewagę nad tradycyjnymi architekturami Transformer w zastosowaniach brzegowych. W przeciwieństwie do Transformerów, które wymagają energochłonnych operacji pamięciowych, SSM wykorzystują operacje tylko do odczytu, co zmniejsza pobór mocy i umożliwia stosowanie nowatorskich rodzajów pamięci. Dzięki mniejszej liczbie jednostek MAC (mnożenie-akumulacja) modele SSM są również bardziej energooszczędne i zajmują mniej miejsca na układzie. Prezentacja obejmie także metody migracji z modeli opartych na Transformerach (np. LLaMA) do SSM z zachowaniem dokładności przy znaczącej poprawie wydajności.
Uczestnicy Summitu będą mogli odwiedzić stoisko BrainChip (nr 716), gdzie zaprezentowane zostaną najnowsze osiągnięcia firmy w dziedzinie Edge AI, w tym innowacje w przetwarzaniu języka na układzie, ultra-niskoprądowej inferencji oraz rozwiązaniach wykorzystujących technologię Akida.
„Modele stanów przestrzennych wyznaczają nowe standardy inteligencji brzegowej działającej w czasie rzeczywistym przy minimalnym zużyciu energii” – powiedział dr Lewis. „Podczas prezentacji pokażemy, jak BrainChip dostarcza skalowalne, wydajne i interaktywne rozwiązania AI dla najbardziej wymagających środowisk wbudowanych.”
Udział w wydarzeniu potwierdza pozycję BrainChip jako lidera w dynamicznie rozwijającej się dziedzinie strumieniowej AI brzegowej, zapewniającej wydajne przetwarzanie w zastosowaniach takich jak lotnictwo, motoryzacja, robotyka, elektronika użytkowa i urządzenia noszone.
BrainChip jest światowym liderem w dziedzinie brzegowego przetwarzania i uczenia AI na układzie scalonym. Flagowy procesor firmy, Akida™, to pierwsze w pełni cyfrowe, neuromorficzne rozwiązanie AI, które naśladuje pracę ludzkiego mózgu, analizując wyłącznie niezbędne dane z czujników i przetwarzając je z wyjątkową wydajnością, precyzją i oszczędnością energii.
Technologia Temporal Event-based Neural Networks (TENNs) opiera się na modelach stanów przestrzennych (SSM), wykorzystując ramy czasowo-zależne i sterowane zdarzeniami, idealne dla aplikacji strumieniowych w czasie rzeczywistym. Te innowacje umożliwiają wdrażanie niskoprądowej AI brzegowej w sektorach takich jak przemysł lotniczy, pojazdy autonomiczne, robotyka, przemysłowy IoT, urządzenia konsumenckie i wearables. BrainChip przesuwa granice inteligentnych obliczeń, zbliżając AI do czujników i czasu rzeczywistego.
Więcej informacji na stronie: www.brainchip.com
Media:
Mark Smith
JPR Communications
818-398-1424
Inwestorzy:
Tony Dawe
Dyrektor Globalnych Relacji Inwestorskich
tdawe@brainchip.com
Firma AstroNova znajduje się obecnie w przełomowym momencie, który może przynieść znaczące przewagi konkurencyjne dla segmentu identyfikacji produktów oraz umożliwić trwały wzrost, wyższą rentowność i ekspansję na większe rynki.
Działania Askeladden/Patela zakłócają rozwój firmy, a ich nieodpowiedni kandydaci mogą zagrozić postępowi.
Zachęcamy akcjonariuszy do głosowania TYLKO na kandydatów AstroNova przy użyciu BIAŁEJ karty do głosowania.
Obecne kierownictwo zmodernizowało możliwości firmy, jej ofertę produktową i skalę działania, osiągając 7,5% średnioroczny wzrost przychodów od czasu objęcia stanowiska CEO przez Gregory’ego Woods’a.
WEST WARWICK, R.I. – AstroNova, Inc. (Nasdaq: ALOT), lider w dziedzinie technologii wizualizacji danych, poinformowała o złożeniu ostatecznych materiałów proxy w SEC w związku z nadchodzącym corocznym zgromadzeniem akcjonariuszy, zaplanowanym na 9 lipca 2025 r. Prawo do głosowania mają akcjonariusze zarejestrowani na dzień 15 maja 2025 r. Materiały proxy są dostępne na stronie internetowej firmy w sekcji relacji inwestorskich: investors.astronovainc.com.
Wraz z materiałami proxy firma zamieściła dodatkowe informacje, aby pomóc akcjonariuszom w podjęciu świadomej decyzji, w tym:
19 maja 2025 r.
Zachęcamy akcjonariuszy do głosowania na sześciu wykwalifikowanych kandydatów AstroNova przy użyciu BIAŁEJ karty proxy.
Zarząd AstroNova wzywa akcjonariuszy do ochrony swoich inwestycji poprzez głosowanie TYLKO na sześciu kandydatów firmy przy użyciu BIAŁEJ karty proxy, a nie na kandydatów Samira Patela i Askeladden Capital Management LLC.
Zgromadzenie akcjonariuszy odbędzie się 9 lipca 2025 r. w Bostonie. Akcjonariusze mogą uzyskać pomoc w głosowaniu, dzwoniąc pod numer 1-844-202-6164.
Szanowni Akcjonariusze,
Dziękujemy za zaufanie i inwestycję w AstroNova. Przed Wami ważna decyzja:
W ciągu ostatnich 11 lat AstroNova przekształciła się z małej firmy o przychodach poniżej 70 mln USD w globalnego lidera technologii wizualizacji danych, osiągając rekordowe przychody przekraczające 150 mln USD w 2025 r.
Obecna strategia koncentruje się na:
Firma przewiduje wzrost przychodów o 7% w 2026 r. oraz poprawę marży EBITDA.
Zarząd AstroNova składa się z doświadczonych liderów, w tym:
Kandydaci Patela/Askeladden:
Ich wybór mógłby zagrozić dotychczasowym postępom i relacjom z klientami.
Zachęcamy do głosowania na BIAŁEJ karcie proxy na sześciu kandydatów AstroNova. Dziękujemy za zaufanie.
Zarząd AstroNova
AstroNova (Nasdaq: ALOT) to globalny lider technologii wizualizacji danych od 1969 r. Firma oferuje rozwiązania z zakresu identyfikacji produktów oraz systemy dla branży lotniczej. Więcej informacji: https://astronovainc.com/.
Pełne materiały proxy są dostępne na stronie SEC oraz w dziale relacji inwestorskich AstroNova. W przypadku pytań prosimy o kontakt: ALOTproxy@allianceadvisors.com.
Deborah Pawlowski, Alliance Advisors
Email: dpawlowski@allianceadvisors.com
Tel: 716.843.3908
EL DORADO HILLS, Kalifornia – Blaize Holdings, Inc. (NASDAQ:BZAI), lider w dziedzinie energooszczędnego przetwarzania AI na urządzeniach brzegowych, poinformował o swoim udziale w targach technologicznych Ladenburg Thalmann Technology Expo w Nowym Jorku. Wydarzenie odbędzie się w środę, 21 maja 2025 roku. Podczas expo Blaize zaprezentuje swoją strategię dotyczącą sztucznej inteligencji na urządzeniach brzegowych oraz model biznesowy, ze szczególnym uwzględnieniem wdrożeń u klientów z branży inteligentnej infrastruktury, obronności i przemysłu.
Blaize oferuje kompleksowe rozwiązania w zakresie architektury procesorów programowalnych oraz platformę programistyczną typu low-code/no-code, które umożliwiają wydajne przetwarzanie AI zarówno na urządzeniach brzegowych, jak i w centrach danych. Rozwiązania firmy zapewniają analizę danych w czasie rzeczywistym, niskie zużycie energii, wysoką wydajność, kompaktowe rozmiary i konkurencyjne ceny.
Siedziba główna Blaize znajduje się w El Dorado Hills w Kalifornii. Firma zatrudnia ponad 200 pracowników na całym świecie, z zespołami w San Jose (Kalifornia), Cary (Karolina Północna) oraz oddziałami w Hyderabadzie (Indie), Leeds i Kings Langley (Wielka Brytania) i Abu Zabi (ZEA). Więcej informacji można znaleźć na stronie www.blaize.com lub śledząc firmę na LinkedIn i X (@blaizeinc).
Niniejszy komunikat prasowy zawiera informacje przyszłościowe zgodne z definicją zawartą w ustawach o papierach wartościowych w USA. Obejmują one m.in. prognozy dotyczące rynku, możliwości biznesowych i oferty produktowej Blaize. Tego typu stwierdzenia można rozpoznać po słowach takich jak „może”, „będzie”, „zamierza”, „oczekuje” czy „planuje”, choć nie wszystkie zawierają te sformułowania.
Informacje przyszłościowe obarczone są ryzykiem i niepewnością. Czynniki, które mogą wpłynąć na rzeczywiste wyniki, to m.in.: zmiany gospodarcze i prawne, skutki fuzji z BurTech Acquisition Corp., zdolność do spełnienia wymogów giełdowych, ryzyko związane z konkurencją, koszty operacyjne, zmiany przepisów, spory prawne, ochrona własności intelektualnej oraz inne czynniki opisane w sekcji „Czynniki Ryzyka” w rocznym raporcie Blaize (Formularz 10-K) złożonym w SEC 15 kwietnia 2025 r.
Prognozy finansowe zawarte w komunikacie opierają się na założeniach obarczonych znaczną niepewnością. Blaize zastrzega, że nie gwarantuje osiągnięcia zakładanych celów. Dane te nie zostały zweryfikowane przez niezależnych audytorów.
Dział Inwestorski
ir@blaize.com
Dział Prasowy
Leo Merle
info@blaize.com
BROOKLYN, N.Y. – Firma Simbase, globalna platforma IoT, ogłosiła wprowadzenie nowej oferty cenowej pod nazwą „10 for 10”. To przełomowy model, w którym klienci otrzymują 10 GB danych za jedyne 10 dolarów miesięcznie za urządzenie, bez konieczności zawierania długoterminowych umów. Oferta jest już dostępna w Stanach Zjednoczonych, z pełnym wsparciem sieci Verizon 5G.
Plan „10 for 10” to odpowiedź Simbase na potrzeby rynku, oferując przejrzyste, elastyczne i skalowalne rozwiązania dla zastosowań wymagających dużych ilości danych, takich jak:
Roel Van Der Meer, współzałożyciel i dyrektor generalny Simbase, podkreśla: „Stworzyliśmy Simbase, aby wyeliminować problemy, które od lat utrudniają rozwój IoT – sztywne umowy, niejasne ceny, słabe zarządzanie i nieprzewidywalną wydajność. „10 for 10” to kolejny krok w realizacji tej misji. To nie tylko konkurencyjna cena, ale też sposób, by dać firmom pełną kontrolę, jasność i swobodę skalowania.”
W miarę jak IoT zyskuje na popularności, Simbase wychodzi naprzeciw wyzwaniom, których tradycyjni operatorzy nie rozwiązali – potrzeby prostoty, skalowalności i przejrzystości. Oferta „10 for 10” usuwa typowe bariery, takie jak pakietowe ceny, sztywne warunki czy brak transparentności, umożliwiając swobodne wdrażanie i rozwój.
„IoT nie powinien stawać się trudniejszy w miarę wzrostu” – dodaje Van Der Meer. „Z Simbase tak nie jest.”
Simbase upraszcza IoT, oferując elastyczność i gotowość do skalowania. Ich globalna platforma, bez konieczności zawierania umów, daje firmom pełną kontrolę – niezależnie od tego, czy testują kilka urządzeń, czy zarządzają tysiącami. Dzięki kartom SIM z technologią eUICC, API w czasie rzeczywistym i przejrzystym cenom „pay-as-you-go”, Simbase eliminuje złożoność zarządzania urządzeniami. Gdziekolwiek są Twoje urządzenia, Simbase zapewnia kontrolę, globalny zasięg i niezawodną łączność. To IoT w najlepszym wydaniu.
Więcej informacji na: simbase.com/10gb-for-10
Gabrielle Kerr
gabrielle.kerr@simbase.com
PHOENIX – Televeda, platforma zaangażowania społecznego, której celem jest zmniejszanie izolacji społecznej i samotności, otrzymała kontrakt od Departamentu ds. Weteranów USA (VA) na pilotaż i rozszerzenie projektu Hero’s Story Project (HSP). Jest to program zapobiegający samobójstwom, skierowany specjalnie do weteranów pochodzenia rdzennego (American Indian i Alaska Native – AIAN).
Hero’s Story Project to kompleksowa inicjatywa, która łączy tradycyjne metody leczenia, takie jak Kręgi Rozmowy i opowiadanie historii, z naukowo potwierdzonymi metodami wsparcia rówieśniczego. Dzięki połączeniu wiedzy kulturowej z nowoczesnymi formami przekazu – takimi jak sesje wirtualne, stacjonarne i hybrydowe – projekt wzmacnia współpracę, buduje zaufanie i poprawia więzi społeczne wśród weteranów zagrożonych wykluczeniem.
Televeda rozpocznie pilotaż w Arizonie i Nowym Meksyku, skupiając się na rdzennych weteranach mieszkających na obszarach wiejskich. Szczególną uwagę poświęci się kobietom – weteranom oraz osobom, które doświadczyły traumy związanej z przemocą seksualną w wojsku (MST). W ramach projektu powstaną bezpieczne grupy wsparcia, a także nawiązana zostanie współpraca z władzami plemiennymi i organizacjami wspierającymi weteranów (VSOs).
– Jesteśmy wdzięczni VA, naszym partnerom plemiennym oraz weteranom, którzy pomogli w realizacji tego projektu – powiedział Mayank Mishra, współzałożyciel Televedy. – Chcemy wspólnie rozwijać dostęp do kulturowo dostosowanych zasobów, aby żaden weteran nie pozostał bez wsparcia VA, które odgrywa kluczową rolę w zapobieganiu samobójstwom.
Projekt, zainicjowany w ramach programu VA Mission Daybreak, to nowatorskie podejście do wsparcia rówieśniczego dla mniejszościowych grup weteranów. Poprzez tzw. „ścieżki zasobów” łączy weteranów z dostosowanymi do ich kultury formami pomocy, przeciwdziałając czynnikom ryzyka, takim jak izolacja społeczna, historyczny brak zaufania czy ograniczony dostęp do usuwania barier kulturowych. Celem projektu jest zwiększenie zaangażowania, zmniejszenie czynników ryzyka oraz wzmocnienie odporności psychicznej weteranów.
Televeda to platforma cyfrowa założona w 2018 roku, której misją jest walka z izolacją społeczną i zwiększanie integracji cyfrowej wśród weteranów, seniorów i społeczności marginalizowanych w USA.
Więcej informacji oraz możliwości współpracy znajdziesz na: televeda.com/heros-story-project
Sean Allsop-Pukahi
Dyrektor ds. Marketingu Społecznościowego i Wydarzeń
outreach@televeda.com
833 299 1449
www.televeda.com