PJM przewiduje wysokie zapotrzebowanie na energię latem i możliwość redukcji obciążenia dzięki programom oszczędnościowym

Prognozy na nadchodzące lato

VALLEY FORGE, Pa., 9 maja 2025 /PRNewswire/ — PJM przewiduje, że dostępna moc wytwórcza wystarczy na pokrycie typowego szczytowego zapotrzebowania w nadchodzące lato, ale przygotowuje się również na skrajne scenariusze, w których może być konieczne sięgnięcie po programy oszczędności energii, aby uniknąć niedoborów.

Logo PJM (PRNewsfoto/PJM Interconnection)

Według prognoz, szczytowe zapotrzebowanie na energię latem może osiągnąć ponad 154 000 MW, co powinno zostać pokryte przez dostępne rezerwy. Jednak po raz pierwszy w historii analiz PJM pojawia się ryzyko, że w ekstremalnych warunkach, przy rekordowym zapotrzebowaniu przekraczającym 166 000 MW, dostępna moc może nie wystarczyć.

W takiej sytuacji PJM skorzysta z programów oszczędności energii, w ramach których uczestnicy dobrowolnie zmniejszają zużycie prądu w zamian za wynagrodzenie.

Pogoda i historyczne dane

Narodowa Służba Meteorologiczna przewiduje, że nadchodzące lato będzie gorętsze niż zwykle, szczególnie na wschodnim wybrzeżu USA. Rekordowe zapotrzebowanie w historii PJM wyniosło 165 563 MW w 2006 roku. W ubiegłym roku szczyt osiągnął około 152 700 MW, a w 2023 roku — 147 000 MW. Na ten sezon PJM dysponuje mocą wytwórczą około 179 200 MW oraz 7900 MW z programów oszczędnościowych.

Jeden megawat (MW) może zasilić około 800 gospodarstw domowych.

Wyzwania i działania zaradcze

PJM wyraża obawy dotyczące nierównowagi między podażą a popytem, spowodowanej wycofywaniem elektrowni i powolnym tempem budowy nowych źródeł energii przy jednoczesnym wzroście zapotrzebowania. Te trendy zostały szczegółowo opisane w raporcie Resource Retirements, Replacements and Risks (PDF) z 2023 roku.

PJM i jego partnerzy podjęli szereg działań, aby przyspieszyć wprowadzanie nowych mocy i lepiej wykorzystać istniejące zasoby:

Rola odnawialnych źródeł energii

W tym sezonie szczególnie ważne będzie sprawne działanie farm wiatrowych i słonecznych. PJM planuje wydać wytyczne dla właścicieli tych instalacji, aby zapewnić ich zgodność z wymaganiami sieci.

"Nasze prognozy pokazują, jak poważne są wyzwania związane z zapewnieniem wystarczających mocy w ekstremalnych warunkach" — powiedział Aftab Khan, Wiceprezes ds. Operacji, Planowania i Bezpieczeństwa. "Wszystkie zasoby w naszym regionie muszą być gotowe do działania, gdy zajdzie taka potrzeba."

Nadzór nad siecią

Zespół operatorów w centrum sterowania PJM monitoruje i zarządza siecią energetyczną 24 godziny na dobę. Analizują różne scenariusze, dostosowują produkcję energii do zmieniającego się zapotrzebowania i dbają o to, aby nie doszło do przeciążeń linii przesyłowych.

O PJM Interconnection

PJM Interconnection, założony w 1927 roku, odpowiada za niezawodność sieci energetycznej obsługującej 67 milionów ludzi w części lub całości stanów: Delaware, Illinois, Indiana, Kentucky, Maryland, Michigan, New Jersey, North Carolina, Ohio, Pennsylvania, Tennessee, Virginia, West Virginia oraz Dystrykcie Kolumbii. PJM zarządza siecią przesyłową o długości 88 333 mil, administruje rynkiem energii elektrycznej oraz planuje rozwój infrastruktury, aby zapewnić jej stabilność. Działania PJM generują oszczędności w wysokości 3,2–4 miliardów dolarów rocznie. Więcej informacji można znaleźć na stronie insidelines.pjm.com.

Cision Oryginalna treść dostępna pod adresem: https://www.prnewswire.com/news-releases/pjm-summer-outlook-2025-adequate-resources-available-for-summer-amid-growing-risk-302451333.html

ŹRÓDŁO: PJM Interconnection

Cherokee Federal wyróżnione za wspieranie zatrudnienia osób z niepełnosprawnościami w sektorze federalnym

Wiodący wykonawca kontraktów doceniony za promowanie różnorodności w miejscach pracy administracji federalnej

TULSA, Okla., 9 maja 2025 /PRNewswire/ — Cherokee Federal, dział kontraktów federalnych należący do Cherokee Nation Businesses, otrzymał od SourceAmerica nagrodę Business Partnership Award 2025. Wyróżnienie przyznano w ramach programu Achievement Awards, który honoruje firmy za działania na rzecz zwiększania szans zawodowych dla osób z niepełnosprawnościami.

Cherokee Federal zostało uhonorowane nagrodą Business Partnership Award 2025 za kluczową rolę w rozwoju programu AbilityOne® na Fort Carson.

Cherokee Federal zostało docenione przez SourceAmerica za współpracę z GCE w ramach programu AbilityOne.

Nominację zgłosił długoletni partner, Global Connections to Employment (GCE). Cherokee Federal wyróżniono za kluczową rolę w rozwoju rządowego programu AbilityOne® na Fort Carson. To jedna z najważniejszych inicjatyw zatrudnienia osób niewidomych lub z poważnymi niepełnosprawnościami, w tym weteranów i rannych żołnierzy. Program wykorzystuje kontrakty federalne, aby tworzyć miejsca pracy w całym kraju, oferując konkurencyjne wynagrodzenia i możliwość zdobycia doświadczenia zawodowego.

„To wyróżnienie to efekt ciężkiej pracy naszego zespołu i partnerów, takich jak GCE” – powiedział Art Spring, dyrektor ds. zdrowia obronnego w Cherokee Federal i członek zarządu Alliance for Expanding America's Workforce, organizacji non-profit wspierającej zatrudnienie osób z niepełnosprawnościami.

Spring, wraz z generałem majorem Kenem Dowdem (w stanie spoczynku), odebrał nagrodę w imieniu Cherokee Federal, dodając: „Nasza współpraca z GCE zmienia życie ludzi i wspiera misje naszych klientów federalnych”.

Nagrody SourceAmerica Achievement Awards honorują organizacje non-profit, pracowników i partnerów biznesowych za zaangażowanie w tworzenie miejsc pracy dla osób z niepełnosprawnościami. Wyróżnienia te są szczególnie ważne w kontekście wysokiego bezrobocia wśród tej grupy społecznej, które jest niemal dwukrotnie wyższe niż wśród osób pełnosprawnych.

„Jesteśmy wdzięczni za to wyróżnienie. Nasza współpraca z GCE realnie wpływa na życie weteranów i organizacji non-profit w całym kraju” – powiedział Dowd, starszy dyrektor w Cherokee Federal.

GCE to jeden z największych prywatnych pracodawców osób z niepełnosprawnościami, oferujący zatrudnienie w takich obszarach jak sprzątanie, gastronomia czy IT. Partnerstwo z Cherokee Federal zmienia życie ludzi i wzmacnia realizację misji.

Cherokee Federal wspiera klientów federalnych poprzez sieć firm zależnych, w tym certyfikowanych podmiotów 8(a) i HUBZone. Oferują one elastyczne rozwiązania umożliwiające agencjom rządowym osiąganie celów.

Pełną listę laureatów nagród Achievement Awards 2025 można znaleźć na stronie SourceAmerica.org.

Więcej informacji o Cherokee Federal na cherokee-federal.com.

O Cherokee Federal

Cherokee Federal to dział kontraktów federalnych Cherokee Nation Businesses – gospodarczej siły największego plemienia rdzennych Amerykanów w USA. Misją firmy jest tworzenie zespołów, które dostarczają innowacyjne rozwiązania dla największych wyzwań kraju, służąc jednocześnie społeczności Cherokee. Więcej na cherokee-federal.com oraz w mediach społecznościowych: LinkedIn, Facebook, X i YouTube.

O SourceAmerica

SourceAmerica łączy klientów rządowych z dostawcami zatrudniającymi osoby z niepełnosprawnościami. Od 1974 roku organizacja działa na rzecz integracji zawodowej i bardziej dostępnego rynku pracy. Więcej na SourceAmerica.org oraz w social mediach: Facebook, X, Instagram i LinkedIn.

Cherokee Federal to dział kontraktów federalnych Cherokee Nation Businesses, wspierający misje rządowe i społeczność Cherokee. Więcej na cherokee-federal.com.

Źródło: Cherokee Federal

The Schall Law Firm informuje o pozwie zbiorowym przeciwko Compass Diversified

LOS ANGELES – Kancelaria prawna The Schall Law Firm, specjalizująca się w prawach akcjonariuszy, przypomina inwestorom o trwającym pozwie zbiorowym przeciwko Compass Diversified (NYSE: CODI). Sprawa dotyczy domniemanych naruszeń przepisów §10(b) i §20(a) ustawy o giełdzie papierów wartościowych z 1934 roku oraz regulacji SEC Rule 10b-5.

Kto może dołączyć do sprawy?

Inwestorzy, którzy nabyli papiery wartościowe Compass Diversified w okresie od 1 maja 2024 r. do 7 maja 2025 r. (tzw. "okres klasy"), mogą zgłaszać się do kancelarii do 8 lipca 2025 r.

Jeśli ponieśliście straty, możecie wziąć udział w sprawie.

Bezpłatna konsultacja prawna

Zachęcamy do kontaktu z Brianem Schallem z The Schall Law Firm pod adresem: 2049 Century Park East, Suite 2460, Los Angeles, CA 90067, telefonicznie: 310-301-3335. Można też skorzystać ze strony internetowej www.schallfirm.com lub wysłać e-mail na adres bschall@schallfirm.com.

Grupa powoda nie została jeszcze zatwierdzona. Do tego czasu nie macie prawnika. Możecie pozostać biernymi członkami grupy.

Zarzuty w sprawie

Według pozwu, Compass Diversified wprowadzał rynek w błąd poprzez nieprawdziwe oświadczenia. Spółka zależna Lugano Holdings Inc. nie prowadziła pełnej dokumentacji finansowej, co skutkowało nieprawidłowościami w sprzedaży, kosztach, zapasach i należnościach. W efekcie sprawozdania finansowe Compass stały się niewiarygodne i wymagają korekty. Firma nie zapewniła też odpowiedniej kontroli wewnętrznej. Gdy prawda wyszła na jaw, inwestorzy ponieśli straty.

Dołącz do sprawy, aby odzyskać straty.

O kancelarii

The Schall Law Firm reprezentuje inwestorów na całym świecie, specjalizując się w zbiorowych pozwach dotyczących papierów wartościowych oraz sprawach związanych z prawami akcjonariuszy.

Niniejszy komunikat może być uznany za reklamę prawniczą w niektórych jurysdykcjach.

Kontakt

The Schall Law Firm
Brian Schall, Esq.
www.schallfirm.com
Tel.: 310-301-3335
info@schallfirm.com

Nieznana technologia stojąca za nową generacją urządzeń z AI na krawędzi sieci

Być może nie słyszałeś o piezoMEMS – ale nowatorskie zastosowania tej maleńkiej, przełomowej technologii mogą odmienić przyszłość sztucznej inteligencji działającej na urządzeniach brzegowych.

W 2023 roku badacze oszacowali, że wygenerowanie obrazu za pomocą generatywnej sztucznej inteligencji (genAI) zużywa tyle energii, co naładowanie smartfona. A teraz wyobraź sobie tworzenie obrazów AI bezpośrednio na swoim telefonie.

Gdy AI przenosi się na urządzenia brzegowe, takie jak smartfony czy okulary rozszerzonej rzeczywistości (AR), najciekawsze i najbardziej powszechne zastosowania będą prawdopodobnie związane z doświadczeniami w czasie rzeczywistym, spersonalizowanymi i dostosowanymi do kontekstu. Ponieważ te urządzenia są zawsze przy nas, AI może wykorzystywać ich sensory – kamery, mikrofony, GPS, akcelerometry – aby zapewnić płynne, szybkie rozwiązania.

Można myśleć o AI jak o wszechobecnym pomocniku oferującym wsparcie w czasie rzeczywistym. W smartfonach może to oznaczać natychmiastowe tłumaczenie języka podczas rozmów lub podróży – np. gdy skierujesz aparat na tablicę, a tekst zostanie przetłumaczony na twój język. W okularach AR możliwości są jeszcze większe – wyobraź sobie spacer po mieście, podczas którego w polu widzenia pojawiają się fakty historyczne, recenzje restauracji lub wskazówki nawigacyjne, dostosowane do twoich zainteresowań, bez konieczności sięgania po urządzenie. Ponieważ edge AI przetwarza dane lokalnie, to również korzyść dla prywatności i zaufania.

Chociaż potencjał edge AI jest oczywisty i ogromny, wciąż istnieją wyzwania związane z hardware’em.

Mimo to trwa wyścig o wprowadzenie genAI na urządzenia brzegowe – smartfony, okulary AR i inne urządzenia mobilne. Badacze z Deloitte szacują, że do końca tego roku ponad 30% sprzedawanych smartfonów może być wyposażonych w genAI. Nie wspominając już o nowej kategorii inteligentnych okularów z genAI.

Część rozwiązania leży w przeprojektowaniu elektroniki, która trafia do tych urządzeń.

Komponenty piezoMEMS umożliwiają genAI na urządzeniach brzegowych

Technologia piezoMEMS odpowiada na wyzwania związane z genAI w urządzeniach brzegowych – nie tylko dzięki temu, co potrafi, ale także dzięki temu, jak jest wytwarzana.

PiezoMEMS to zastosowanie technologii mikro-elektromechanicznych (MEMS), która wykorzystuje materiały piezoelektryczne do zamiany energii elektrycznej na ruch, działając jak źródło przepływu powietrza sterowane napięciem. Komponenty piezoMEMS są produkowane w stabilnym, powtarzalnym procesie półprzewodnikowym, co pozwala na masową produkcję wydajnych i niedrogich mikroelektronik w małych, zaledwie 1-milimetrowych obudowach.

Aktywne chłodzenie dla zarządzania termiką w edge AI

Istnieją już piezoelektryczne siłowniki krzemowe, które pompują całkowicie ciche, pozbawione wibracji impulsy powietrza w celu chłodzenia cienkich, ograniczonych przestrzennie systemów elektronicznych – to właściwie wentylator w formie chipa.

Możliwości chłodzenia urządzeń edge AI są ogromne. Pierwszy mikro-wentylator piezoMEMS jest o 96% mniejszy i lżejszy niż tradycyjne wentylatory – i jest jedynym aktywnym systemem termicznym na tyle małym i cienkim, by zmieścić się w smartfonach i okularach AR. Pozwala to obniżyć temperaturę powierzchni i komponentów o 15-30%, umożliwiając dłuższą pracę z pełną wydajnością.

Głośniki piezoMEMS jako interfejs konwersacyjnej AI

Rozmiar i waga: głośniki piezoMEMS mogą zapewnić taką samą lub lepszą głośność (poziom ciśnienia akustycznego [SPL]) jak tradycyjne głośniki cewkowe, przy ułamku ich rozmiaru i wagi. Wykorzystanie tej technologii w okularach z AI przybliża projektantów do wspomnianej wcześniej idealnej równowagi.

Oto dwa przykłady. Po pierwsze, przy grubości zaledwie 1 mm głośnik piezoMEMS jest ~70% cieńszy niż konwencjonalne głośniki cewkowe, co pozwala na smuklejsze i bardziej stylowe oprawki.

Po drugie, sugeruje się, że idealna waga okularów to 30 gramów, aby zapewnić komfort noszenia przez cały dzień. W okularach AI tradycyjne głośniki ważą ~2 gramy każdy. Dwa głośniki (4 gramy) stanowią ~15% całkowitej wagi. Głośniki piezoMEMS, ważące ~150 miligramów każdy, mogą zmniejszyć wagę o >90%, zbliżając okulary AR do celu 30 gramów.

Jakość dźwięku: Oprócz małych rozmiarów i wagi, głośniki piezoMEMS poprawiają jakość audio. Nie tylko generują wystarczającą głośność w otwartej przestrzeni, ale także doskonale radzą sobie z wysokimi częstotliwościami, które wpływają na zrozumiałość mowy. Dzieje się tak, ponieważ piezoMEMS zapewnia szybszą reakcję mechaniczną niż tradycyjne głośniki, z minimalnym przesunięciem fazowym, co przekłada się na czysty i dokładny dźwięk.

Lepsze funkcje DSP: Wreszcie, zaawansowane funkcje DSP, takie jak tryby prywatności czy kierunkowy dźwięk, działają lepiej z głośnikami piezoMEMS. Dzięki spójności procesu półprzewodnikowego, głośniki te mają niemal idealną powtarzalność głośności i fazy, co daje algorytmom DSP bardziej przewidywalne warunki działania. Mniejsza zmienność głośników pozwala na lepszą wydajność przy mniejszym obciążeniu obliczeniowym.

Uwolnienie potencjału urządzeń edge AI

Ostatecznie, wprowadzenie generatywnej AI na urządzenia konsumenckie wymaga znaczących innowacji. Producenci muszą nie tylko pokonać ograniczenia fizyczne, ale także zapewnić najlepsze możliwe wrażenia użytkownika – wszystko bez kompromisów w designie.

Nowe rozwiązania w technologii piezoMEMS otwierają możliwości eliminacji ograniczeń termicznych, poprawy zrozumiałości mowy dla konwersacyjnej AI oraz zwiększenia stylu (cienkie oprawki) i komfortu (waga) w smartfonach i okularach AR z AI.

Ekosystem genAI jest rozległy i powiązany. PiezoMEMS może być kluczowym elementem tego rozwoju.

Sztuczna inteligencja w finansach: kluczowa rola danych

W miarę jak sztuczna inteligencja dynamicznie rozwija się w różnych sektorach, firmy z branży finansowej stoją przed ważnym wyborem. Chociaż chętnie korzystają z możliwości AI, rosnąca presja regulacyjna sprawia, że wdrożenie nowych technologii okazuje się bardziej skomplikowane, niż się wydawało. W mediach często mówi się o zagrożeniach, takich jak halucynacje AI, tendencyjność modeli czy brak przejrzystości w podejmowaniu decyzji – kwestiach, na które regulatorzy zwracają coraz większą uwagę.

Jednak poza szumem wokół generatywnej AI i obawami dotyczącymi zgodności z przepisami kryje się realna szansa. Sukces w wykorzystaniu AI nie zależy od tworzenia coraz większych modeli, ale od dostarczania im odpowiednich, specjalistycznych danych. Instytucje finansowe dysponują ogromnymi ilościami nieuporządkowanych informacji ukrytych w umowach, wyciągach, dokumentach, e-mailach i przestarzałych systemach. Dopóki te dane nie zostaną uwolnione i przetworzone, AI nie spełni swojej obietnicy w sektorze finansowym.

Ukryty problem: biliony danych uwięzione w nieustrukturyzowanych zasobach

Instytucje finansowe codziennie generują i zarządzają ogromnymi wolumenami danych. Jednak szacuje się, że 80-90% tych informacji jest nieuporządkowanych – ukrytych w umowach, wiadomościach e-mail, dokumentach czy raportach. W przeciwieństwie do uporządkowanych baz danych, te zasoby są chaotyczne, zróżnicowane i trudne do przetworzenia tradycyjnymi metodami.

To poważne wyzwanie. Systemy AI działają tylko tak dobrze, jak dane, które otrzymują. Bez dostępu do czystych, kontekstowych i wiarygodnych informacji nawet najbardziej zaawansowane modele mogą generować błędne wyniki. To szczególnie problematyczne w finansach, gdzie precyzja, przejrzystość i zgodność z przepisami są absolutnie kluczowe.

Firmy, które chcą wdrażać AI, coraz częściej zdają sobie sprawę, że ich najcenniejsze dane wciąż tkwią w przestarzałych systemach i odizolowanych repozytoriach. Uwolnienie tych zasobów to już nie kwestia drugorzędna – to warunek konieczny do osiągnięcia sukcesu z AI.

Presja regulacyjna i ryzyko pośpiechu w AI

Regulatorzy na całym świecie coraz baczniej przyglądają się wykorzystaniu AI w finansach. Rosną obawy dotyczące halucynacji AI i braku przejrzystości – sytuacji, w których modele generują przekonujące, ale błędne informacje bez możliwości śledzenia ich źródła. Tendencyjność modeli i brak możliwości wyjaśnienia ich decyzji dodatkowo utrudniają adopcję, zwłaszcza w obszarach takich jak udzielanie kredytów, ocena ryzyka czy compliance, gdzie niejasne decyzje mogą prowadzić do problemów prawnych i wizerunkowych.

Badania wskazują, że ponad 80% instytucji finansowych uważa wiarygodność danych i możliwość wyjaśnienia decyzji AI za główne czynniki spowalniające ich projekty. Obawa przed nieprzewidzianymi konsekwencjami oraz zaostrzający się nadzór tworzą atmosferę ostrożności. Firmy chcą innowacji, ale boją się naruszenia przepisów lub wdrożenia systemów, którym nie można w pełni ufać.

W takich warunkach inwestowanie w ogólne rozwiązania AI lub eksperymentowanie z gotowymi modelami językowymi często kończy się porażką, stratą środków lub – co gorsza – systemami, które zwiększają ryzyko, zamiast je redukować.

Ku specjalistycznemu, zorientowanemu na dane AI

Przełom, którego potrzebuje branża, to nie kolejny model, ale zmiana podejścia – z budowania modeli na mistrzostwo w zarządzaniu danymi. Przetwarzanie nieustrukturyzowanych danych specyficznych dla sektora finansowego oferuje bardziej praktyczne podejście do AI. Zamiast polegać na ogólnych modelach trenowanych na publicznych danych, ta metoda skupia się na wydobywaniu, porządkowaniu i kontekstualizacji unikalnych danych, które instytucje finansowe już posiadają.

Wykorzystując AI zaprojektowaną do rozumienia niuansów języka finansowego, dokumentów i procesów, firmy mogą przekształcić niedostępne dotąd dane w użyteczne informacje. To pozwala na automatyzację, wnioskowanie i wsparcie decyzyjne oparte na własnych, wiarygodnych zasobach, a nie na zewnętrznych zbiorach danych, które mogą być nieprecyzyjne lub nieistotne.

Takie podejście przynosi szybki zwrot z inwestycji, poprawiając efektywność i redukując ryzyko, jednocześnie spełniając oczekiwania regulatorów. Budowa systemów z przejrzystymi i śledzonymi przepływami danych daje organizacjom przejrzystość i możliwość wyjaśnienia decyzji – kluczowe czynniki w obecnych wyzwaniach związanych z adopcją AI.

AI już dziś przynosi realne efekty w finansach

Podczas gdy wiele dyskusji o AI skupia się na spektakularnych innowacjach, przetwarzanie specjalistycznych, nieustrukturyzowanych danych już zmienia codzienne operacje w największych bankach i instytucjach finansowych. Te organizacje wykorzystują AI nie po to, by zastąpić ludzką wiedzę, ale by ją uzupełnić – automatyzując wydobywanie kluczowych zapisów z umów, wykrywając ryzyka compliance ukryte w dokumentach czy usprawniając analizę korespondencji z klientami.

Na przykład analiza fundamentalna sprawozdań finansowych to podstawowe zadanie w sektorze, ale analitycy często tracą godziny na porównywanie różnych wersji dokumentów i interpretację uwag audytorów. Firmy korzystające z rozwiązań AI skróciły ten proces o 60%, pozwalając zespołom skupić się na strategicznych decyzjach, a nie ręcznym przeglądzie.

Efekty są wymierne. Manualne procesy, które kiedyś zajmowały dni lub tygodnie, dziś kończą się w minutach. Zespoły zarządzające ryzykiem szybciej wykrywają potencjalne problemy. Działy compliance sprawniej reagują podczas audytów lub kontroli regulacyjnych. Te wdrożenia AI nie wymagają ryzykowania na nieprzetestowanych modelach – bazują na istniejących zasobach danych, usprawniając to, co firmy już mają.

Taka praktyczna aplikacja AI kontrastuje z metodą prób i błędów, powszechną w projektach generatywnej AI. Zamiast ścigać się w adoptowaniu najnowszych trendów, skupia się na rozwiązywaniu realnych problemów biznesowych z precyzją i celem.

Redukcja ryzyka AI: co przeoczyli CTO i regulatorzy

W pogoni za adopcją AI wielu liderów sektora finansowego – a nawet regulatorów – skupia się zbyt mocno na warstwie modeli, a za mało na danych. Urok zaawansowanych algorytmów często przesłania podstawową prawdę: wyniki AI zależą od jakości, trafności i struktury danych.

Priorytetyzując przetwarzanie specjalistycznych danych, instytucje mogą redukować ryzyko projektów AI już na starcie. Oznacza to inwestycje w technologie i frameworki, które potrafią inteligentnie przetwarzać nieustrukturyzowane dane w kontekście finansów, zapewniając nie tylko dokładność wyników, ale też ich wyjaśnialność i możliwość audytu.

To podejście ułatwia też skalowanie AI. Gdy nieustrukturyzowane dane zostaną przekształcone w użyteczne formaty, stają się fundamentem dla wielu zastosowań AI – czy to w raportowaniu regulacyjnym, automatyzacji obsługi klienta, wykrywaniu oszustw czy analizie inwestycji. Zamiast traktować każdy projekt AI jako odrębne przedsięwzięcie, opanowanie nieustrukturyzowanych danych tworzy wielokrotnego użytku zasób, przyspieszając przyszłe innowacje przy zachowaniu kontroli i zgodności.

Poza cyklem hype'u: praktyczne podejście do AI

Branża finansowa stoi w przełomowym momencie. AI oferuje ogromny potencjał, ale jego realizacja wymaga dyscypliny i nastawienia na dane. Obecna uwaga skupiona na ryzykach halucynacji i tendencyjności modeli, choć uzasadniona, może odwracać uwagę od ważniejszego problemu: bez uwolnienia i uporządkowania ogromnych zasobów nieustrukturyzowanych danych, projekty AI będą nadal rozczarowywać.

Przetwarzanie specjalistycznych, nieustrukturyzowanych danych to przełom, który nie generuje nagłówków, ale przynosi wymierne, trwałe efekty. To przypomnienie, że w silnie regulowanych, bogatych w dane sektorach, takich jak finanse, praktyczne AI nie polega na gonieniu za kolejną rewolucyjną technologią, ale na lepszym wykorzystaniu tego, co już istnieje.

Gdy regulatorzy zaostrzają nadzór, a firmy szukają równowagi między innowacją a zarządzaniem ryzykiem, ci, którzy skupią się na mistrzostwie w danych, będą najlepiej przygotowani do przewodzenia. Przyszłość AI w finansach nie będzie definiowana przez to, kto ma najnowocześniejszy model, ale przez to, kto potrafi uwolnić swoje dane, wdrażać AI odpowiedzialnie i dostarczać stałą wartość w złożonym, regulowanym świecie.

Yubei Chen, współzałożyciel Aizip Inc – wywiad

Kim jest Yubei Chen?

Yubei Chen to współzałożyciel firmy Aizip Inc, która specjalizuje się w tworzeniu najmniejszych i najbardziej wydajnych modeli sztucznej inteligencji na świecie. Pełni również funkcję adiunkta na wydziale Inżynierii Elektrycznej i Komputerowej na Uniwersytecie Kalifornijskim w Davis. Jego badania skupiają się na połączeniu neuronauki obliczeniowej i głębokiego uczenia bez nadzoru (samouczącego się), co pozwala lepiej zrozumieć zasady rządzące uczeniem reprezentacji w mózgu i maszynach oraz pogłębia wiedzę na temat statystyki sygnałów naturalnych.

Doświadczenie zawodowe

Zanim dołączył do UC Davis, Chen odbywał studia podoktoranckie pod kierunkiem prof. Yanna LeCuna w NYU Center for Data Science (CDS) oraz w Meta Fundamental AI Research (FAIR). Doktorat obronił w Redwood Center for Theoretical Neuroscience oraz Berkeley AI Research (BAIR) na UC Berkeley, gdzie jego opiekunem naukowym był prof. Bruno Olshausen.

Czym zajmuje się Aizip?

Aizip tworzy wysoce wydajne rozwiązania AI zoptymalizowane dla urządzeń brzegowych, oferując kompaktowe modele do przetwarzania obrazu, dźwięku, szeregów czasowych, języka oraz fuzji danych z sensorów. Ich produkty umożliwiają rozpoznawanie twarzy i obiektów, wykrywanie słów kluczowych, analizę sygnałów EKG/EEG oraz działanie chatbotów bez konieczności połączenia z chmurą, dzięki technologii TinyML. Dzięki platformie Aizipline, nazywanej „nanofabryką AI”, firma przyspiesza proces tworzenia modeli, wykorzystując modele bazowe i generatywne, dążąc do pełnej automatyzacji projektowania AI. Seria Gizmo, obejmująca małe modele językowe (300M–2B parametrów), wspiera szeroką gamę urządzeń, wprowadzając inteligentne funkcje na urządzenia brzegowe.

Wpływ pracy z Yannem LeCunem i badań na UC Berkeley

Pytanie: Pracowałeś z Yannem LeCunem w NYU i Meta FAIR. Jak ta współpraca oraz badania na UC Berkeley wpłynęły na Twoje podejście do tworzenia rozwiązań AI w praktyce?

W Berkeley moja praca opierała się na ścisłej analizie naukowej i matematycznej precyzji. Moje badania doktoranckie, łączące inżynierię elektryczną, informatykę i neuronaukę obliczeniową, koncentrowały się na zrozumieniu systemów AI z perspektywy „białej skrzynki” – czyli opracowywaniu metod odkrywania ukrytych struktur danych i modeli uczenia maszynowego. Pracowałem nad tworzeniem interpretowalnych, wysokowydajnych modeli AI oraz technik wizualizacji, które pomagają „otwierać” czarne skrzynki systemów sztucznej inteligencji.

W Meta FAIR nacisk położony był na inżynierię systemów AI, aby osiągać najwyższą wydajność na dużą skalę. Dzięki dostępowi do światowej klasy zasobów obliczeniowych badałem granice uczenia samouczącego się i przyczyniłem się do rozwoju tzw. „modeli świata” – systemów AI, które uczą się na podstawie danych i potrafią wyobrażać sobie różne środowiska. To połączenie doświadczeń – naukowej precyzji w Berkeley i skalowania opartego na inżynierii w Meta – dało mi kompleksowe spojrzenie na rozwój AI. Pokazało, jak ważne są zarówno teoretyczne zrozumienie, jak i praktyczna implementacja przy tworzeniu rozwiązań AI dla rzeczywistych zastosowań.

Neuronauka a rozwój modeli AI

Pytanie: Twoja praca łączy neuronaukę obliczeniową z AI. W jaki sposób wnioski z neuronauki wpływają na sposób, w jaki tworzysz modele AI?

W neuronauce obliczeniowej badamy, jak mózg przetwarza informacje, mierząc jego reakcje na różne bodźce – podobnie jak analizujemy modele AI, aby zrozumieć ich wewnętrzne mechanizmy. Na początku kariery opracowałem techniki wizualizacji do analizy osadzeń słów, rozkładając np. słowo „jabłko” na składowe znaczeniowe, takie jak „owoc” i „technologia”. Później tę metodę rozszerzyłem na bardziej złożone modele, jak transformery i duże modele językowe, co pomogło odkryć, w jaki sposób przetwarzają i przechowują wiedzę.

Te metody są podobne do technik stosowanych w neuronauce, takich jak użycie elektrod lub fMRI do badania aktywności mózgu. Analiza wewnętrznych reprezentacji modelu AI pozwala zrozumieć jego strategie wnioskowania i wykryć emergentne właściwości, np. neurony pojęciowe aktywujące się dla konkretnych idei (jak w przypadku cechy mostu Golden Gate, którą Anthropic odkrył w modelu Claude). Takie podejście jest dziś szeroko stosowane w branży, ponieważ zwiększa interpretowalność i umożliwia praktyczne interwencje, np. usuwanie błędów z modeli. Dzięki inspiracji neuronauką AI staje się bardziej zrozumiała, godna zaufania i wydajna.

Powstanie Aizip

Pytanie: Co zainspirowało Cię do współzałożenia Aizip? Jak przebiegała droga od pomysłu do powstania firmy?

Jako badacz podstaw AI większość mojej pracy miała charakter teoretyczny, ale chciałem połączyć badania z praktycznymi zastosowaniami. Założyłem Aizip, aby wprowadzać innowacje AI do rzeczywistych zastosowań, szczególnie w środowiskach o ograniczonych zasobach. Zamiast tworzyć duże modele bazowe, skupiliśmy się na najmniejszych i najbardziej wydajnych modelach AI, zoptymalizowanych dla urządzeń brzegowych.

Wszystko zaczęło się od kluczowej obserwacji: podczas gdy branża AI skupiała się na skalowaniu w górę, rzeczywiste zastosowania często wymagały lekkich i wydajnych modeli. Dostrzegliśmy szansę, aby zapoczątkować nowy kierunek, łączący naukową precyzję z praktycznym wdrożeniem. Dzięki wykorzystaniu uczenia samouczącego się i kompaktowych architektur modeli, Aizip dostarcza rozwiązania AI działające efektywnie na urządzeniach brzegowych, otwierając nowe możliwości dla systemów wbudowanych, IoT i nie tylko.

Dlaczego małe modele AI?

Pytanie: Aizip specjalizuje się w małych modelach AI dla urządzeń brzegowych. Jaką lukę na rynku dostrzegliście, decydując się na ten kierunek?

Branża AI skupiała się głównie na zwiększaniu modeli, ale rzeczywiste zastosowania często wymagają czegoś przeciwnego – wysokiej wydajności, niskiego zużycia energii i minimalnych opóźnień. Wiele obecnych modeli AI jest zbyt zasobożernych, aby działać na małych urządzeniach. Dostrzegliśmy lukę na rynku – brak rozwiązań AI, które zapewniałyby wysoką wydajność przy ekstremalnych ograniczeniach zasobów.

Zrozumieliśmy, że nie każda aplikacja AI wymaga ogromnych modeli, a oparcie się wyłącznie na nich nie byłoby skalowalne. Zamiast tego skupiamy się na optymalizacji algorytmów, aby osiągać maksymalną wydajność przy zachowaniu dokładności. Projektując modele AI dostosowane do zastosowań brzegowych – czy to w inteligentnych sensorach, wearables czy automatyce przemysłowej – umożliwiamy działanie AI tam, gdzie tradycyjne modele byłyby niepraktyczne. To podejście sprawia, że AI jest bardziej dostępna, skalowalna i energooszczędna, otwierając nowe możliwości innowacji poza chmurą.

Małe modele językowe (SLM) a duże modele

Pytanie: Aizip jest pionierem w rozwoju małych modeli językowych (SLM). Jak Twoim zdaniem SLM konkurują lub uzupełniają większe modele, takie jak GPT-4?

SLM i duże modele, jak GPT-4, niekoniecznie konkurują, ponieważ służą różnym potrzebom. Duże modele są potężne pod względem generalizacji i złożonego rozumowania, ale wymagają ogromnych zasobów obliczeniowych. SLM są zaprojektowane dla wydajności i działania na urządzeniach o niskim poborze mocy. Uzupełniają duże modele, umożliwiając funkcje AI w zastosowaniach, gdzie liczą się ograniczenia mocy obliczeniowej, opóźnienia i koszty – np. w urządzeniach IoT, wearables czy automatyce przemysłowej. W miarę rozwoju AI widzimy hybrydowe podejście, w którym duże modele chmurowe obsługują złożone zapytania, a SLM zapewniają inteligencję w czasie rzeczywistym na urządzeniach brzegowych.

Wyzwania w optymalizacji AI dla urządzeń brzegowych

Pytanie: Jakie są największe wyzwania techniczne w tworzeniu modeli AI na tyle wydajnych, by działały na urządzeniach o niskim poborze mocy?

Jednym z podstawowych wyzwań jest brak pełnego teoretycznego zrozumienia, jak działają modele AI. Bez solidnych podstaw teoretycznych optymalizacja często opiera się na metodach empirycznych, co ogranicza poprawę wydajności. Ponadto ludzkie uczenie się odbywa się na różne sposoby, których obecne paradygmaty uczenia maszynowego nie odzwierciedlają w pełni, przez co trudno jest projektować modele naśladujące ludzką efektywność.

Z perspektywy inżynieryjnej, działanie AI w ekstremalnych ograniczeniach wymaga innowacyjnych rozwiązań w kompresji modeli, kwantyzacji i projektowaniu architektur. Kolejnym wyzwaniem jest tworzenie modeli, które mogą adaptować się do różnych urządzeń i środowisk, zachowując przy tym niezawodność. W miarę jak AI coraz częściej współdziała ze światem fizycznym przez IoT i sensory, rośnie znaczenie naturalnych interfejsów – takich jak głos, gesty czy inne niestandardowe metody wprowadzania danych. AI na urządzeniach brzegowych to redefinicja sposobu, w jaki użytkownicy wchodzą w interakcje z technologią.

Współpraca Aizip z firmami takimi jak SoftBank

Pytanie: Czy możesz podzielić się szczegółami dotyczącymi współpracy Aizip z firmami takimi jak SoftBank?

Ostatnio nawiązaliśmy współpracę z SoftBank nad projektem akwakultury, który zdobył nagrodę CES Innovation Award – jesteśmy z niego szczególnie dumni. Opracowaliśmy wydajny model AI działający na urządzeniach brzegowych, służący do liczenia ryb w hodowlach. To rozwiązanie odpowiada na kluczowe wyzwanie w rybołówstwie, które wpływa na zrównoważony rozwój, marnowanie żywności i opłacalność. Branża ta była oporna na adopcję AI ze względu na niestabilne zasilanie i łączność na morzu, co uniemożliwiało użycie rozwiązań chmurowych.

Aby rozwiązać ten problem, stworzyliśmy system działający lokalnie. Połączyliśmy symulacje grafiki komputerowej SoftBanku (do generowania danych treningowych) z naszymi kompaktowymi modelami AI, tworząc wysoce dokładne rozwiązanie działające na smartfonach. W testach podwodnych osiągnęliśmy 95% skuteczności rozpoznawania, znacząco poprawiając dokładność liczenia ryb. Dzięki temu hodowcy mogą optymalizować warunki przechowywania, decydować, czy ryby powinny być transportowane żywe czy mrożone, oraz wykrywać potencjalne choroby.

Ten przełom zwiększa efektywność, obniża koszty i redukuje zależność od pracy manualnej. Pokazuje też, jak AI może realnie wpływać na rozwiązanie problemów w praktyce.

AI Nanofactory – automatyzacja rozwoju modeli AI

Pytanie: Aizip wprowadziło koncepcję „AI Nanofactory”. Czy możesz wyjaśnić, co to oznacza i jak automatyzuje rozwój modeli AI?

AI Nanofactory to nasze wewnętrzne narzędzie do automatyzacji projektowania AI, inspirowane Electronic Design Automation (EDA) w produkcji półprzewodników. Wczesne etapy rozwoju każdej nowej technologii wymagają dużego nakładu pracy manualnej, więc automatyzacja jest kluczowa, aby przyspieszyć postęp i skalować rozwiązania.

Zamiast używać AI tylko do przyspieszania innych branż, zadaliśmy pytanie: czy AI może przyspieszyć swój własny rozwój? AI Nanofactory automatyzuje każdy etap tworzenia modelu – od przetwarzania danych, przez projektowanie architektury, selekcję modelu, trening, kwantyzację, wdrożenie, aż po debugowanie. Dzięki wykorzystaniu AI do optymalizacji samej siebie skróciliśmy średni czas rozwoju nowych modeli 10-krotnie. W niektórych przypadkach nawet ponad 1000-krotnie – model, który kiedyś wymagał roku pracy, teraz można stworzyć w kilka godzin.

Dodatkowo ta automatyzacja sprawia, że rozwiązania AI są opłacalne dla szerokiego zakresu zastosowań, zwiększając dostępność i skalowalność wdrożeń.

Przyszłość edge AI w ciągu najbliższych 5 lat

Pytanie: Jak Twoim zdaniem będzie ewoluować edge AI w ciągu najbliższych 5 lat?

Edge AI ma szansę zrewolucjonizować interakcję z technologią, podobnie jak smartfony zmieniły dostęp do internetu. Obecnie większość aplikacji AI działa w chmurze, ale to się zmienia, w miarę jak AI przenosi się bliżej sensorów i urządzeń współdziałających ze światem fizycznym. Ta zmiana podkreśla kluczową potrzebę wydajnego przetwarzania w czasie rzeczywistym na urządzeniach brzegowych.

W ciągu najbliższych pięciu lat edge AI umożliwi bardziej naturalne interakcje człowiek-komputer, takie jak rozpoznawanie głosu i gestów, co zmniejszy zależność od tradycyjnych interfejsów, jak klawiatura czy ekran dotykowy. AI będzie też coraz głębiej osadzona w codziennym otoczeniu – inteligentnych domach czy automatyce przemysłowej – umożliwiając podejmowanie decyzji w czasie rzeczywistym.

Kolejnym trendem będzie rosnąca autonomia systemów edge AI. Dzięki postępom w automatyzacji (takiej jak AI Nanofactory) modele staną się bardziej samodzielne, redukując potrzebę interwencji człowieka we wdrażaniu i utrzymaniu. To otworzy nowe możliwości w branżach takich jak opieka zdrowotna, motoryzacja czy rolnictwo.

Nadchodzące produkty Aizip

Pytanie: Nad jakimi nowymi urządzeniami z AI pracuje Aizip? Które z nich najbardziej Cię ekscytują?

Rozwijamy nowe zastosowania naszych modeli w różnych branżach, a jednym z najbardziej ekscytujących jest AI Agent dla sektora motoryzacyjnego. Rośnie zainteresowanie, szczególnie wśród chińskich producentów samochodów, tworzeniem asystentów głosowych opartych na modelach językowych, które przypominałyby ChatGPT we wnętrzu pojazdu. Wyzwaniem jest to, że obecne asystenty wciąż polegają na chmurze, zwłaszcza w przypadku płynnych, naturalnych dialogów. Tylko podstawowe komendy (np. „włącz klimatyzację” lub „otwórz bagażnik”) działają lokalnie w pojeździe, a ich sztywna forma może rozpraszać kierowców, jeśli nie pamiętają dokładnych poleceń.

Stworzyliśmy serię ultra-wydajnych agentów AI o nazwie Gizmo, które są już stosowane w różnych branżach, a teraz pracujemy nad ich wdrożeniem jako „współpilotów” w pojazdach. Gizmo rozumie intencje w bardziej subtelny sposób i może wykonywać polecenia w formie swobodnej konwersacji. Na przykład agent może dostosować temperaturę w kabinie, gdy kierowca powie „jest mi zimno”, albo odpowiedzieć na pytanie „Jutro jadę do Bostonu, co mam na siebie włożyć?”, sprawdzając pogodę i sugerując strój.

Ponieważ działa lokalnie i nie wymaga chmury, agent pozostaje funkcjonalny w strefach bez zasięgu – np. w tunelach, górach czy na obszarach wiejskich. Zwiększa też bezpieczeństwo, pozwalając kierowcy na pełną kontrolę głosową bez odrywania uwagi od drogi. Przy okazji warto wspomnieć, że pracujemy też nad modelem AI do karaoke w samochodach i głośnikach Bluetooth, który działa lokalnie. W czasie rzeczywistym usuwa wokale z dowolnego utworu, tworząc wersję karaoke. Poza ułatwianiem bezpiecznej jazdy chcemy też sprawić, by była bardziej przyjemna.

To właśnie takie rozwiązania – te, które realnie wpływają na codzienne życie ludzi – są dla nas najważniejsze.

Podsumowanie

Aizip tworzy ultra-wydajne rozwiązania AI zoptymalizowane dla urządzeń brzegowych, oferując kompaktowe modele do przetwarzania obrazu, dźwięku, szeregów czasowych, języka i fuzji danych z sensorów. Ich produkty umożliwiają rozpoznawanie twarzy i obiektów, wykrywanie słów kluczowych, analizę EKG/EEG oraz działanie chatbotów na urządzeniach, wykorzystując TinyML. Dzięki platformie Aizipline firma przyspiesza rozwój modeli, wykorzystując modele bazowe i generatywne, dążąc do pełnej automatyzacji projektowania AI. Seria Gizmo, obejmująca małe modele językowe (300M–2B parametrów), wspiera szeroką gamę urządzeń, wprowadzając inteligentne funkcje na urządzenia brzegowe.

D

Nowy Jork – Nest Seekers International i Cervera Real Estate prezentują rynek luksusowej nieruchomości w Miami

Nowy Jork – Nest Seekers International wraz z Cervera Real Estate zorganizowali ekskluzywne wydarzenie w showroomie Artefacto w Nowym Jorku, aby zaprezentować dynamicznie rozwijający się rynek luksusowych nieruchomości w Miami. Podkreślono prognozowany 24% wzrost sprzedaży oraz 9% wzrost średnich cen, co potwierdza, że Miami jest jednym z najgorętszych rynków nieruchomościowych w USA w 2025 roku.

Spotkanie ekspertów i dyskusja o potencjale Miami

Wydarzenie zgromadziło agentów nieruchomości z całego świata, lokalnych ekspertów oraz media. Dyskusję moderowali Eddie Shapiro, CEO Nest Seekers, oraz Alicia Cervera Lamadrid z Cervera Real Estate. Tematem przewodnim było „Dlaczego Miami?”, z naciskiem na przekształcenie Brickell w globalne centrum luksusu oraz rosnące zainteresowanie nieruchomościami nad wodą, prywatnymi rezydencjami i apartamentami w prestiżowych lokalizacjach. W wydarzeniu uczestniczył również zespół Juliao Team z Cervera, znany z wiedzy o rynku Miami.

Podziękowania dla kluczowych uczestników

Specjalne podziękowania skierowano do Anthony’ego Flexasa, Dyrektora Sprzedaży w Cervera, którego zaangażowanie i wsparcie były kluczowe dla sukcesu wieczoru.

Wypowiedź eksperta – Leyla Aviles z Nest Seekers Miami

„To był wyjątkowy wieczór w Nowym Jorku, podczas którego dwie potęgi rynku luksusowych nieruchomości połączyły siły, aby pokazać dynamiczny rozwój Miami” – powiedziała Leyla Aviles, Agentka Nest Seekers Miami. „Jako osoba pracująca na obu wybrzeżach, widziałam niesamowitą synergię między tymi rynkami. Brickell staje się prawdziwym centrum globalnego luksusu.”

Trendy na rynku Miami

Aviles zaznaczyła, że zamożni inwestorzy coraz częściej wybierają takie lokalizacje jak Coral Gables, Coconut Grove, Pinecrest, Miami Beach, Edgewater oraz wyspy barierowe, szczególnie interesując się nieruchomościami nad wodą i dużymi działkami. Według MIAMI Association of Realtors, sprzedaż domów jednorodzinnych powyżej 1 miliona dolarów w hrabstwie Miami-Dade wzrosła o 3,6% w ujęciu rocznym w lutym, a średnie ceny apartamentów skoczyły o 8,3%, co wskazuje na silną konkurencję na rynku.

Wydarzenie podkreśliło również strategiczną ekspansję Nest Seekers w Miami, gdzie firma podwoiła zespół i zwiększyła swoją obecność na wschodnim wybrzeżu hrabstwa Miami-Dade, aby lepiej obsługiwać zamożnych klientów poszukujących inwestycji związanych z stylem życia. „Inwestujemy w to, czym Miami się staje – światową stolicą luksusowego życia, designu i inwestycji” – dodała Aviles.

Kontakt dla mediów

Osoba do kontaktu:
Darren Bettencourt
darren@bettencourtcollective.com

Nowy Jork – Kancelaria Halper Sadeh bada sprawiedliwość sprzedaży TaskUs

Kancelaria prawna Halper Sadeh LLC, specjalizująca się w ochronie praw inwestorów, analizuje, czy proponowana sprzedaż spółki TaskUs, Inc. (NASDAQ: TASK) podmiotom powiązanym z Blackstone oraz członkom zarządu i założycielom TaskUs za 16,50 USD za akcję jest uczciwa wobec akcjonariuszy.


Jak akcjonariusze TaskUs mogą chronić swoje prawa?

Halper Sadeh zachęca akcjonariuszy TaskUs do zapoznania się ze swoimi prawami i możliwościami prawnymi. W razie pytań można skontaktować się z Danielem Sadhem lub Zacharym Halperem pod numerem (212) 763-0060 lub mailowo: sadeh@halpersadeh.com, zhalper@halpersadeh.com.

Przedmiot dochodzenia

Śledztwo dotyczy potencjalnych naruszeń praw papierów wartościowych oraz obowiązków fiducjarnych przez zarząd TaskUs. Kancelaria sprawdza, czy:

Możliwe działania prawne

W imieniu akcjonariuszy Halper Sadeh może dążyć do:

Sprawa byłaby prowadzona na zasadzie success fee – klienci nie ponoszą kosztów z góry.

Doświadczenie kancelarii

Halper Sadeh LLC reprezentuje inwestorów na całym świecie, którzy padli ofiarą oszustw finansowych lub nadużyć korporacyjnych. Ich prawnicy mają na koncie odzyskanie milionów dolarów dla pokrzywdzonych oraz wprowadzenie reform w spółkach.

Uwaga: Reklama prawnicza. Poprzednie wyniki nie gwarantują podobnych rezultatów.

Dane kontaktowe

Halper Sadeh LLC
One World Trade Center
85th Floor
New York, NY 10007
Daniel Sadeh, Esq.
Zachary Halper, Esq.
(212) 763-0060
sadeh@halpersadeh.com
zhalper@halpersadeh.com
https://www.halpersadeh.com

KBRA przyznaje wstępne oceny dla RCKT Mortgage Trust 2025-CES5

NEW YORK – Agencja ratingowa KBRA przypisała wstępne oceny dla 27 klas papierów wartościowych zabezpieczonych hipotekami z RCKT Mortgage Trust 2025-CES5 (RCKT 2025-CES5).

Szczegóły transakcji

RCKT Mortgage Trust 2025-CES5 to transakcja zabezpieczona hipotekami (RMBS) o wartości 401,3 miliona dolarów. Sponsorem są Woodward Capital Management LLC (powiązana z Rocket Mortgage, LLC) oraz EF Mortgage LLC. W skład puli wchodzą wyłącznie nowo udzielone kredyty drugiej hipoteki (CES) ze stałym oprocentowaniem. Średni czas trwania kredytów w puli to jeden miesiąc.

Pula składa się z 4 332 kredytów udzielonych przez Rocket Mortgage, LLC. Wszystkie kredyty mają stałe oprocentowanie (FRM) i różne okresy spłaty:

Proces oceny KBRA

KBRA wykorzystała następujące metody analizy:

Dodatkowe materiały

Pełne oceny i dokumenty można znaleźć tutaj.

Raport dostępny jest tutaj.

Powiązane publikacje

Metodologie

Ujawnienia

Dodatkowe informacje na temat kluczowych czynników wpływających na ocenę, analizy wrażliwości oraz czynników ESG można znaleźć w pełnym raporcie.

Formularze ujawnień dostępne są tutaj.

Wyjaśnienie skali ocen znajduje się tutaj.

Więcej informacji o zasadach KBRA można znaleźć na www.kbra.com.

O KBRA

KBRA to jedna z wiodących agencji ratingowych, zarejestrowana w U.S. Securities and Exchange Commission (NRSRO) oraz w europejskich i brytyjskich organach nadzoru. KBRA jest również uznawana przez instytucje w Kanadzie, Tajwanie i USA.

Kontakt

Zespół analityczny:

Rozwój biznesu:

ID dokumentu: 1009336

Kancelaria Prawna Frank R. Cruz informuje inwestorów o terminie dołączenia do pozwu zbiorowego przeciwko Fluence Energy, Inc.

LOS ANGELES – Kancelaria Prawna Frank R. Cruz przypomina inwestorom o zbliżającym się terminie 12 maja 2025 roku, do którego można zgłosić się jako główny powód w zbiorowym pozwie dotyczącym oszustwa na rynku papierów wartościowych. Sprawa dotyczy osób, które nabyły akcje Fluence Energy, Inc. (NASDAQ: FLNC) w okresie od 28 października 2021 roku do 10 lutego 2025 roku (tzw. "Okres Klasowy").

Logo Kancelarii

JEŚLI PONIOSŁEŚ STRATY INWESTUJĄC W FLUENCE ENERGY, INC. (FLNC), KLIKNIJ TUTAJ, ABY DOŁĄCZYĆ DO POZWU.

Co się wydarzyło?

22 lutego 2024 roku Blue Orca Capital opublikował raport ujawniający, że założyciele Fluence oraz główne źródła przychodów firmy – Siemens AG i The AES Corporation – wycofywali swoje zaangażowanie w spółkę. Ponadto amerykański oddział Siemens, Siemens Energy, wniósł pozew przeciwko Fluence, oskarżając firmę o wprowadzanie w błąd, naruszenie umowy oraz oszustwo. Raport wskazywał również, że wzrost przychodów i zysków Fluence wynikał z agresywnej księgowości i selektywnego dostosowywania wyników, co sprawiło, że raportowane przychody były niewiarygodne i groziły gwałtownym spadkiem.

W reakcji na te informacje kurs akcji Fluence spadł o 13,4%, zamykając się na poziomie 14,73 USD za akcję 22 lutego 2024 roku, co przyniosło straty inwestorom.

10 lutego 2025 roku Fluence opublikowało wyniki finansowe za pierwszy kwartał roku obrotowego 2025, zgłaszając stratę netto w wysokości 57 mln USD oraz 49% spadek przychodów w porównaniu z rokiem poprzednim. Spółka znacząco obniżyła również prognozy przychodów, tłumacząc to opóźnieniami w podpisywaniu umów przez klientów oraz presją konkurencyjną.

W wyniku tej informacji kurs akcji Fluence spadł o 46,4%, osiągając 7,00 USD za akcję 11 lutego 2025 roku, pogłębiając straty inwestorów.

O co chodzi w pozwie?

Pozew zarzuca, że w trakcie Okresu Klasowego przedstawiciele Fluence składali nieprawdziwe lub wprowadzające w błąd oświadczenia oraz zatajali istotne fakty dotyczące sytuacji firmy. Według pozwu, nie ujawniono inwestorom, że:

Jeśli nabyłeś akcje Fluence w okresie od 28 października 2021 roku do 10 lutego 2025 roku, masz czas do 12 maja 2025 roku, aby zgłosić się jako główny powód w tej sprawie.

Kontakt w sprawie pozwu

Jeśli chcesz dowiedzieć się więcej o pozwie zbiorowym lub masz pytania dotyczące swoich praw, skontaktuj się z nami:

Frank R. Cruz
Kancelaria Prawna Frank R. Cruz
2121 Avenue of the Stars, Suite 800
Century City, Kalifornia 90067
Email: info@frankcruzlaw.com
Telefon: 310-914-5007
Strona internetowa: www.frankcruzlaw.com
Twitter: twitter.com/FRC_LAW

W wiadomości e-mail podaj swój adres, numer telefonu oraz liczbę posiadanych akcji.

Aby zostać członkiem grupy powodańców, nie musisz teraz podejmować żadnych działań – możesz pozostać biernym uczestnikiem sprawy lub wybrać własnego pełnomocnika. Niniejsza informacja prasowa może być uznana za reklamę prawniczą w niektórych jurysdykcjach.

Dane kontaktowe

Kancelaria Prawna Frank R. Cruz, Los Angeles
Frank R. Cruz, 310-914-5007
Email: fcruz@frankcruzlaw.com
Strona internetowa: www.frankcruzlaw.com

Planeta AI 2025 
menu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram