Prezes Intela rozważa sprzedaż jednego z działów firmy

Lip-Bu Tan, dyrektor generalny Intela, wciąż analizuje możliwości, które pozwolą firmie na powrót do podstawowej działalności.

Intel może sprzedać dział sieciowy i edge

Jak podaje Reuters, Intel rozważa sprzedaż swojego działu zajmującego się sieciami i technologią edge. Tan chce pozbyć się jednostek, które nie są uznawane za kluczowe dla biznesu. Ten segment produkuje chipy dla sprzętu telekomunikacyjnego i w 2024 roku wygenerował 5,8 miliarda dolarów przychodu.

Rozmowy z potencjalnymi nabywcami

Według doniesień Reutersa, Intel rozpoczął już wstępne rozmowy z potencjalnymi kupcami, ale formalny proces sprzedaży jeszcze się nie rozpoczął.

Strategia skupienia się na podstawowej działalności

Ewentualna sprzedaż nie byłaby zaskoczeniem. Tan wielokrotnie podkreślał, że chce, aby firma skoncentrowała się na podstawowych obszarach działalności - chipach do komputerów osobistych i centrów danych. W marcu, podczas konferencji Intel Vision, Tan zapowiedział klientom, że firma wyodrębni swoje aktywa niebędące częścią podstawowego biznesu.

Redakcja TechCrunch skontaktowała się z Intelem w celu uzyskania dodatkowych informacji.

Infineon i NVIDIA wprowadzają nową architekturę zasilania dla centrów danych AI

Kluczowe informacje

Rewolucja w zasilaniu centrów danych

MONACHIUM & SANTA CLARA, Kalifornia – Infineon Technologies AG (FSE: IFX / OTCQX: IFNNY) wprowadza przełomowe zmiany w architekturze zasilania dla przyszłych centrów danych AI. Wspólnie z NVIDIA firma opracowuje nową generację systemów zasilania opartych na centralnej generacji prądu stałego o napięciu 800 V. Ta innowacyjna architektura znacząco poprawia efektywność energetyczną w całym centrum danych i umożliwia konwersję mocy bezpośrednio na poziomie procesorów AI (GPU) na płytach serwerowych.

Korzyści z nowego rozwiązania

To przełomowe podejście otwiera drogę do wdrożenia zaawansowanych systemów zasilania w centrach danych wykorzystujących przetwarzanie przyśpieszone. W obliczu rosnących wymagań – współczesne centra AI wykorzystują już ponad 100 000 pojedynczych GPU – efektywność dystrybucji energii staje się kluczowa. Przewiduje się, że przed końcem dekady pojedyncze stojaki serwerowe będą wymagały mocy przekraczającej 1 megawat.

Wypowiedzi przedstawicieli firm

"Infineon napędza innowacje w dziedzinie sztucznej inteligencji" – powiedział Adam White, Prezes Dywizji Power & Sensor Systems w Infineon. "Połączenie naszej wiedzy systemowej z doświadczeniem NVIDIA w przetwarzaniu przyśpieszonym tworzy nowy standard architektury zasilania dla centrów danych AI."

"Nowa architektura 800V HVDC zapewnia wysoką niezawodność i efektywność energetyczną" – dodał Gabriele Gorla, wiceprezes ds. inżynierii systemowej w NVIDIA. "To podejście pozwala nam optymalizować zużycie energii przy jednoczesnym zachowaniu wydajności potrzebnej dla przyszłych obciążeń AI."

Przejście na scentralizowane zasilanie

Obecnie systemy zasilania w centrach danych AI są zdecentralizowane, z wieloma jednostkami zasilającymi (PSU) dostarczającymi energię do procesorów. Nowa architektura wprowadza centralizację, lepiej wykorzystując ograniczoną przestrzeń w stojakach serwerowych. To zwiększa znaczenie zaawansowanych rozwiązań półprzewodnikowych, minimalizujących liczbę etapów konwersji energii.

Pozycja Infineon na rynku

Jako lider w dziedzinie rozwiązań półprzewodnikowych i integracji systemów, Infineon przewiduje, że udział półprzewodników mocy w scentralizowanej architekturze HVDC będzie co najmniej tak znaczący jak w obecnych systemach AC. Firma oferuje kompleksowe portfolio produktów opartych na różnych materiałach półprzewodnikowych (Si, SiC, GaN), wspierając zarówno nowe architektury HVDC, jak i obecne rozwiązania dla hiperoperatorów.

Więcej informacji o rozwiązaniach Infineon dla centrów danych AI znajdziesz tutaj.

O firmie Infineon

Infineon Technologies AG to globalny lider w dziedzinie systemów zasilania i IoT. Firma wspiera dekarbonizację i cyfryzację poprzez swoje produkty i rozwiązania. Na koniec września 2024 roku Infineon zatrudniał około 58 060 pracowników, osiągając przychody na poziomie 15 miliardów euro w roku podatkowym 2024. Spółka jest notowana na giełdzie we Frankfurcie (IFX) i na rynku OTCQX w USA (IFNNY).

Więcej informacji: www.infineon.com
Komunikat prasowy dostępny online: www.infineon.com/press
Obserwuj nas: XFacebookLinkedIn

Kontakt

Dla mediów i prasy branżowej:
Michael Burner (siedziba główna)
+49 89 234 39300
michael.burner@infineon.com

Agnes Toan (Ameryka)
+1 408 250 1814
agnes.toan@infineon.com

Lin Zhu (Chiny)
+86 21 6101 9199
lin.zhu@infineon.com

Yasuyuki Kamiseki (Japonia)
+81 3 4595 7079
yasuyuki.kamiseki@infineon.com

Relacje inwestorskie:
+49 89 234 26655
investor.relations@infineon.com

FedEx jako pierwsza globalna firma zdobywa certyfikat CEIV Pharma dla obsługi naziemnej w swoich portach lotniczych

FedEx stał się pierwszym globalnym operatorem logistycznym, który uzyskał certyfikat CEIV Pharma dla obsługi naziemnej we wszystkich swoich węzłach lotniczych i rampach.

MIAMI – Podczas 34. Konferencji CNS Partnership, Międzynarodowe Zrzeszenie Przewoźników Powietrznych (IATA) przyznało programowi FedEx Global Healthcare Quality certyfikat CEIV Pharma na poziomie korporacyjnym. To ważny krok w realizacji założeń firmy dotyczących jakości, zgodności z przepisami oraz przywództwa w logistyce farmaceutycznej. Certyfikat potwierdza skuteczność systemu zarządzania jakością FedEx i jego zdolność do zapewnienia kompleksowych usług logistycznych, spełniających wymagania ściśle regulowanej branży farmaceutycznej.


– Ten certyfikat pokazuje nasze zaangażowanie w doskonałość w logistyce farmaceutycznej – powiedział Nick Gennari, prezes ds. globalnej opieki zdrowotnej i sprzedaży komercyjnej. – Nasza pionierska, ogólnoświatowa strategia jakości podkreśla, że spełniamy najwyższe standardy branżowe w transporcie i obsłudze produktów farmaceutycznych. Ponad 90% naszych globalnych przesyłek farmaceutycznych przechodzi przez obiekty z certyfikatem CEIV Pharma, co zapewnia klientom najwyższą jakość usług w lotniczym transporcie farmaceutyków.

Certyfikat CEIV Pharma wyznacza najwyższe standardy bezpiecznego, zgodnego z przepisami i szybkiego transportu farmaceutyków wymagających kontroli temperatury w globalnej sieci cargo.

– Branża farmaceutyczna polega na transporcie lotniczym ze względu na jego szybkość i efektywność w dostarczaniu wrażliwych na czas i temperaturę produktów, takich jak szczepionki czy leki. W miarę jak łańcuchy dostaw stają się coraz bardziej skomplikowane, potrzeba spójnych i godnych zaufania standardów jest większa niż kiedykolwiek, aby zapewnić bezpieczeństwo końcowym odbiorcom. Cieszymy się, że FedEx Global Healthcare rozszerza listę obiektów z certyfikatem CEIV Pharma, który jest uznanym w branży znakiem jakości w obsłudze farmaceutyków – powiedział Frédéric Leger, wiceprezes IATA ds. produktów i usług komercyjnych.

W 2024 r. FedEx uzyskał certyfikację CEIV Pharma dla swoich węzłów w Memphis (MEM) i Indianapolis (IND) oraz ramp w San Juan (SJU) i Aguadilla (BQN) w Portoryko. Oprócz certyfikatu korporacyjnego zespół FedEx Global Healthcare ogłosił również 15 nowych obiektów z certyfikatem CEIV Pharma, które zostaną oficjalnie zatwierdzone w maju 2025 r.:

O firmie FedEx Corp.

FedEx Corp. (NYSE: FDX) oferuje klientom i firmom na całym świecie szeroki wachlarz usług transportowych, e-commerce i biznesowych. Z rocznymi przychodami sięgającymi 88 miliardów dolarów, firma dostarcza zintegrowane rozwiązania biznesowe, wykorzystując swoją elastyczną, wydajną i inteligentną sieć globalną. Regularnie wymieniana wśród najbardziej cenionych i godnych zaufania pracodawców na świecie, FedEx motywuje ponad 500 000 pracowników do przestrzegania zasad bezpieczeństwa, najwyższych standardów etycznych oraz zaspokajania potrzeb klientów i społeczności. Firma dąży do odpowiedzialnego i efektywnego łączenia ludzi oraz możliwości na całym świecie, z celem osiągnięcia neutralności węglowej do 2040 r. Więcej informacji można znaleźć na stronie fedex.com/about.

Kontakt

Tammy DeGroff
FedEx Media Relations
901-434-8100
MediaRelations@fedex.com

Zmęczenie pilotami generatywnej AI – nowe wyzwanie dla firm

Historia lubi się powtarzać: przełomowa technologia przyciąga uwagę liderów biznesowych, obiecując rewolucyjne zmiany. W latach 2010. był to RPA (automatyzacja procesów), później chmura obliczeniowa. Dziś na topie jest generatywna sztuczna inteligencja (Gen AI), a firmy rzucają się w wir projektów pilotażowych bez jasnego planu.

Efekt? Narastające zjawisko nazywane Zmęczeniem Pilotami Gen AI. To stan wyczerpania i frustracji, gdy firmy uruchamiają dziesiątki nieskoordynowanych inicjatyw bez strategii. Zamiast zysków i efektywności, powstaje chaos, powielanie działań i zastój innowacyjności.

Czym jest zmęczenie pilotami Gen AI?

To problem organizacyjny: wielkie ambicje bez struktury. Przyczyny są znane z poprzednich fal technologicznych:

W skrócie: problem pojawia się, gdy eksperymenty wyprzedzają strategię.

Dlaczego to się dzieje?

Firmy pomijają podstawy. Przed wdrożeniem AI trzeba zoptymalizować procesy, które ma usprawnić. W Accruent widzieliśmy, że samo usprawnienie przepływów pracy i poprawa jakości danych może dać nawet 50% wzrost efektywności – bez użycia AI. Dopiero na takim fundamencie Gen AI przynosi podwójne korzyści.

Kolejny błąd to brak zasad. Piloty nie powinny trwać w nieskończoność. Sukces mierzymy konkretnymi wskaźnikami: oszczędnością czasu, kosztów lub nowymi możliwościami. Nawet połowa pomysłów na Gen AI może się okazać lepsza dla innych technologii – i to jest w porządku. Chodzi o rozwiązanie problemu, nie samo wdrożenie AI.

Lekcje z RPA i chmury

To nie pierwsza technologiczna euforia. RPA obiecywało automatyzację, chmura – elastyczność. Obie spełniły obietnice, ale tylko dla tych, którzy wdrożyli je metodycznie.

Kluczowa lekcja? Nie pomijaj fundamentów. Firmy osiągają do 50% poprawy efektywności, naprawiając procesy przed wprowadzeniem AI. Gen AI na sprawnym systemie podwaja wyniki. Na zepsutym – nie daje prawie nic.

Podobnie z danymi. Gen AI jest tylko tak dobre, jak dane, które przetwarza. Brudne lub nieaktualne dane prowadzą do błędów. Dlatego potrzebne są solidne ramy zarządzania danymi, co potwierdzają eksperci i raporty McKinsey.

Pokusa "łatwego" AI

Gen AI ma niski próg wejścia – gotowe modele i proste interfejsy pozwalają każdemu uruchomić pilota w kilka godzin. To zaleta i przekleństwo. Działy pracują w izolacji, bez koordynacji. Często dziesiątki projektów idą równolegle, z różnymi celami i bez wspólnej definicji sukcesu.

Efekt? Zmęczenie zasobów i brak wymiernych korzyści. Bez centralnego nadzoru nawet obiecujące pomysły utykają w pętli testów i poprawek.

Jak przerwać ten cykl?

Traktuj Gen AI jak każdą poważną inwestycję IT – ze strategią i kontrolą. Oto kluczowe zasady:

  1. Zaczynaj od problemu, nie technologii. Nie wdrażaj AI, bo jest modne – tylko tam, gdzie rozwiązuje konkretny problem biznesowy.
  2. Optymalizuj przed innowacją. Napraw proces, zanim dodasz do niego AI. Jak wskazuje Bain & Company, firmy z solidnymi podstawami szybciej czerpią wartość z Gen AI.
  3. Weryfikuj dane. Modele uczą się na jakościowych, etycznych danych. Według Gartnera, złe dane to główny powód porażek.
  4. Zdefiniuj sukces. Każdy pilot musi mieć jasne KPIs powiązane z celem biznesowym. Decyzje: kontynuować, zmienić czy zamknąć projekt, muszą być oparte na danych.
  5. Miej szerokie narzędzia. Gen AI nie zawsze jest najlepszym wyborem. Czasem lepsze będą RPA, low-code lub uczenie maszynowe.

Przyszłość: wyzwania i nadzieje

Zmęczenie pilotami może jeszcze narastać, zwłaszcza z postępem technologii jak Agentic AI. Presja "zrobienia czegoś z AI" jest ogromna, a bez zasad firmy utoną w możliwościach.

Ale jest też optymizm. Dojrzałe praktyki wdrożeniowe, lepsze narzędzia integracyjne i gotowe modele od OpenAI, Meta czy Mistral ułatwiają pracę. Ramy etycznego AI, np. AI Now Institute, redukują ryzyko. Rośnie też świadomość biznesowa – coraz więcej liderów rozumie, co AI może, a czego nie.

Podsumowanie: cel ważniejszy niż piloty

Klucz to intencja. Gen AI może przynieść ogromne korzyści – ale tylko ze strategią, czystymi danymi i mierzalnymi efektami. Bez tego to kolejna moda, która zmęczy zespoły i rozczaruje zarząd.

Chcesz uniknąć zmęczenia pilotami? Nie zaczynaj od technologii. Zacznij od celu. I buduj od tego punktu.

Sztuczna inteligencja w naszym życiu i potrzeba przejrzystości

Sztuczna inteligencja (AI) jest obecna w niemal każdej dziedzinie naszego życia – od spersonalizowanych rekomendacji po kluczowe decyzje biznesowe. Jak wskazują badania, rozwój AI będzie postępował, a wraz z nim wzrośnie też poziom zagrożeń z nią związanych. Firmy wdrażają rozwiązania oparte na AI, aby bronić się przed coraz bardziej złożonymi cyberzagrożeniami, ale kluczowe staje się również zapewnienie przejrzystości działania tych systemów, aby budować kulturę bezpieczeństwa w organizacjach.

Mimo że AI oferuje zaawansowane możliwości, często działa jak „czarna skrzynka” – generuje wyniki bez wyjaśnienia, jak doszła do konkretnych wniosków. Problem błędnych decyzji lub fałszywych informacji tworzonych przez AI może prowadzić do poważnych konsekwencji dla biznesu. Gdy firmy popełniają błędy z powodu AI, ich klienci domagają się wyjaśnień i szybkich rozwiązań.

Co jest przyczyną takich pomyłek? Często winowajcą są nieodpowiednie dane treningowe. Większość publicznych modeli generatywnej AI, takich jak ChatGPT, uczy się na informacjach dostępnych w internecie, które bywają niezweryfikowane i nieprecyzyjne. AI może odpowiadać szybko, ale dokładność tych odpowiedzi zależy od jakości danych, na których została wytrenowana.

Błędy AI mogą objawiać się na różne sposoby – od generowania nieprawidłowych skryptów po fałszywe decyzje bezpieczeństwa, np. blokowanie pracownikom dostępu do systemów z powodu błędnych podejrzeń. Takie sytuacje mogą prowadzić do poważnych zakłóceń w działalności firmy. Dlatego przejrzystość działania AI jest kluczowa dla zbudowania zaufania do tej technologii.

Zaufanie do AI – dlaczego to takie ważne?

Żyjemy w czasach, w których z jednej strony ufamy różnym źródłom informacji, a z drugiej – coraz częściej domagamy się dowodów i weryfikacji. W przypadku AI powierzamy zaufanie systemom, które mogą być niedokładne. Co gorsza, bez przejrzystości działania nie sposób ocenić, czy podjęte przez AI decyzje są słuszne. Wyobraźmy sobie, że system bezpieczeństwa wyłącza maszyny, ale opiera się na błędnej interpretacji danych. Bez wglądu w proces decyzyjny AI nie możemy mieć pewności, czy podjął właściwy krok.

Oprócz zakłóceń w biznesie, kolejnym poważnym problemem jest ochrona danych. Systemy AI, takie jak ChatGPT, uczą się na dostarczanych im informacjach. Jeśli użytkownicy lub programiści przypadkowo udostępnią poufne dane, model może wykorzystać je do generowania odpowiedzi dla innych, co prowadzi do wycieku wrażliwych informacji. Takie błędy mogą zaszkodzić efektywności, zyskowności, a przede wszystkim zaufaniu klientów. AI ma usprawniać procesy, ale jeśli wymaga ciągłej weryfikacji, firmy tracą czas i narażają się na ryzyko.

Jak szkolić zespoły do odpowiedzialnego korzystania z AI?

Aby zminimalizować ryzyko związane z AI, specjaliści IT powinni odpowiednio przeszkolić pracowników, aby korzystali z tej technologii w sposób odpowiedzialny. Dzięki temu organizacje będą lepiej chronione przed cyberzagrożeniami, które mogą zagrozić ich stabilności.

Zanim jednak zacznie się szkolenia, liderzy IT powinni wspólnie zdecydować, które systemy AI najlepiej odpowiadają potrzebom firmy. Ważne, aby nie działać pochopnie – lepiej zacząć od małych kroków, skupiając się na konkretnych wymaganiach. Wybrane rozwiązania powinny być zgodne z istniejącą infrastrukturą i celami firmy, a także spełniać te same standardy bezpieczeństwa, co inne używane narzędzia.

Gdy system zostanie wybrany, można stopniowo wprowadzać go w zespole. Warto rozpocząć od prostych zadań, obserwując, gdzie AI sprawdza się dobrze, a gdzie wymaga poprawy. Następnie można wykorzystywać AI do wspierania pracy, np. odpowiadając na proste pytania lub automatyzując podstawowe procesy. Kolejnym krokiem jest nauka weryfikacji wyników – coraz więcej zawodów będzie wymagało umiejętności stawiania granic i sprawdzania poprawności działania AI, np. w przypadku programowania z jej pomocą.

Oprócz praktycznych działań, kluczowe są też otwarte dyskusje. Warto rozmawiać o tym, czy AI rzeczywiście rozwiązuje problemy, zwiększa produktywność i poprawia zadowolenie klientów. Ważne, aby jasno określić oczekiwany zwrot z inwestycji (ROI) i regularnie go monitorować. Dzięki temu pracownicy lepiej zrozumieją, jak korzystać z AI odpowiedzialnie.

Jak osiągnąć przejrzystość w AI?

Szkolenia i świadomość to ważne elementy, ale aby AI stała się bardziej przejrzysta, konieczne jest lepsze zrozumienie danych, na których uczą się modele. Tylko wysokiej jakości dane treningowe mogą zapewnić wiarygodność systemów. W przyszłości może uda się dokładnie prześledzić proces decyzyjny AI, ale na razie potrzebujemy rozwiązań, które działają w oparciu o weryfikowalne zasady i ograniczenia.

Pełna przejrzystość wymaga czasu, ale dynamiczny rozwój AI wymaga szybkich działań. W miarę jak modele stają się bardziej złożone (co potwierdzają badania), rosną też konsekwencje ich błędów. Dlatego zrozumienie, jak AI podejmuje decyzje, jest kluczowe dla jej skuteczności i wiarygodności. Dzięki przejrzystym systemom możemy zapewnić, że technologia ta będzie nie tylko użyteczna, ale także etyczna, obiektywna i precyzyjna.

Radha Basu – od kariery w HP do założenia iMerit

Radha Basu, założycielka i dyrektor generalna iMerit, przez 20 lat budowała swoją karierę w HP, gdzie ostatecznie kierowała grupą Enterprise Solutions. Później doprowadziła do debiutu giełdowego Support.com jako jej CEO. W 2007 roku razem z Dipakiem Basu założyła fundację Anudip, a w 2012 roku powołała do życia iMerit. Dziś jest uznawana za wiodącą przedsiębiorczynię technologiczną, mentorkę i pionierkę w branży oprogramowania.

iMerit oferuje rozwiązania w zakresie danych dla sztucznej inteligencji, łącząc automatyzację, eksperckie oznaczanie danych przez ludzi oraz zaawansowaną analitykę. Firma zapewnia wysokiej jakości etykietowanie danych i dostrajanie modeli na dużą skalę.

Inspiracja do założenia iMerit i wyzwania związane z budowaniem globalnego zespołu

Zanim założyła iMerit, Radha Basu była prezesem i dyrektorem generalnym SupportSoft, gdzie doprowadziła firmę do debiutu na giełdzie. To doświadczenie pokazało jej, jak ważne jest połączenie ludzi i technologii od samego początku.

Podczas gdy boom technologiczny w Indiach tworzył nowe możliwości, zauważyła, że wielu utalentowanych młodych ludzi z obszarów o ograniczonym dostępie do edukacji pozostaje w tyle. Wierzyła w ich potencjał i chęć nauki. Gdy tylko zobaczyli, jak oprogramowanie może napędzać zaawansowane technologie, takie jak AI, chętnie zaangażowali się w tę ścieżkę kariery.

iMerit rozpoczęło działalność z niewielkim, zróżnicowanym zespołem, w połowie składającym się z kobiet, i od tamtej pory szybko się rozwija. Kluczowe okazały się elastyczność i otwartość na naukę pracowników, zwłaszcza gdy wzrosło zapotrzebowanie na specjalistów od danych w kontekście AI.

Dziś iMerit jest globalnym dostawcą rozwiązań danych AI dla kluczowych sektorów, takich jak pojazdy autonomiczne, medycyna i technologia. Firma zapewnia, że modele AI klientów są budowane na wysokiej jakości, wiarygodnych danych, co jest niezbędne w środowiskach o wysokiej stawce.

Siła iMerit tkwi w solidnych fundamentach technologicznych oraz w dobrze wyszkolonym, zmotywowanym zespole, który rozwija się w kulturze wspierającej naukę. To podejście napędza wzrost firmy, utrzymuje ją w dobrej kondycji finansowej i zapewnia lojalność klientów.

Od małej firmy do globalnego lidera w usługach danych AI

iMerit współpracuje dziś z ponad 200 klientami, w tym z gigantami technologicznymi, takimi jak eBay i Johnson & Johnson. Firma miała wyjątkową okazję obserwować rozwój AI u swoich klientów – od wczesnych eksperymentów po wdrożenia na dużą skalę.

Branża AI rozwijała się niezwykle dynamicznie. iMerit ewoluowało od dostawcy usług oznaczania danych do pełnoprawnej firmy specjalizującej się w danych AI, oferującej rozwiązania obejmujące cały cykl "human-in-the-loop" (HITL).

Największym obszarem działalności firmy jest autonomiczna mobilność, gdzie zarządza pełnym stosem percepcji, w tym fuzją danych z czujników. W sektorze medycznym iMerit wspiera rozwój AI w obrazowaniu klinicznym, a w obszarze high-tech jest na czele dostrajania i walidacji generatywnej AI.

Wzrost iMerit jest napędzany długoterminowymi partnerstwami – większość z dziesięciu największych klientów współpracuje z firmą od ponad pięciu lat. W miarę jak ich potrzeby stają się bardziej złożone, iMerit nieustannie podnosi swoje kwalifikacje, narzędzia i rozwiązania.

Kamienie milowe w historii iMerit

Kiedy praca z danymi AI była postrzegana jako dorywcze zajęcie dla tłumów, iMerit postawiło na rozwój karier w tej dziedzinie. Budowa wewnętrznych zespołów zajmujących się zaawansowanymi przypadkami użycia pozwoliła klientom na szybkie skalowanie, co zaowocowało pierwszą umową o wartości 1 mln dolarów miesięcznie w obszarze pojazdów autonomicznych.

Pandemia COVID-19 wystawiła na próbę elastyczność firmy – w ciągu kilku dni przekształciła się z działającej wyłącznie w biurze w całkowicie zdalną. Pomimo wyzwań, iMerit zwiększyło przychody i zatrudnienie w tym okresie.

W 2023 roku iMerit przejęło Ango.ai, platformę do oznaczania danych i automatyzacji przepływów pracy, co pozwoliło połączyć ekspertyzę iMerit z zaawansowanymi narzędziami Ango. Dziś wielu nowych klientów rozpoczyna współpracę bezpośrednio przez Ango Hub, przyciąganych przyjaznymi dla użytkownika procesami i silnym zabezpieczeniem danych.

Wyzwania związane z danymi w zaawansowanych dziedzinach AI

Zadania związane z danymi pochłaniają około 80% czasu poświęcanego na projekty AI, co czyni je kluczowym elementem całego procesu. Jakość danych jest szczególnie ważna w sektorach, w których działa iMerit, takich jak pojazdy autonomiczne czy diagnostyka medyczna.

Obsługa wyjątków ma nieproporcjonalnie duże znaczenie. Ludzka intuicja w identyfikowaniu sytuacji wykraczających poza normę znacząco zwiększa wartość modeli, czyniąc je bardziej kompleksowymi i niezawodnymi.

Bezpieczeństwo, prywatność i poufność danych to gorące tematy. iMerit inwestuje w protokoły bezpieczeństwa informacji, takie jak SOC2, HIPAA i TISAX, aby chronić dane klientów.

Połączenie robotyki i ludzkiej inteligencji w AI

AI zapewnia skalowalność, ale ludzie dostarczają ostatniego elementu – elastyczności, pewności i odporności. Najskuteczniejsze firmy będą łączyć robotykę z praktykami "human-in-the-loop" (HITL).

HITL jest niezbędny na każdym etapie rozwoju i wdrażania AI, pełniąc również rolę filaru zaufania i bezpieczeństwa. Ludzka inteligencja będzie konieczna do korygowania błędów modeli, zwłaszcza w krytycznych zastosowaniach.

Ango Hub – platforma łącząca automatyzację z ekspercką wiedzą

AI i automatyzacja zapewniają szybkość i skalowalność, podczas gdy ludzie dostarczają niuansów, wglądu i nadzoru. HITL gwarantuje zaangażowanie człowieka w kluczowych momentach cyklu życia AI, co przekłada się na lepszą jakość danych i wydajność modeli.

Ludzcy eksperci angażują się w precyzyjne oznaczanie danych, stosują złożone rozumowanie w przypadku wyjątków i sprawdzają treści generowane przez AI. Systemy eskalacji kontekstowej kierują tylko te wyniki, które budzą wątpliwości, do recenzentów, zachowując równowagę między nadzorem a wydajnością.

HITL jest również kluczowy w dostrajaniu agentów AI poprzez uczenie ze wzmocnieniem oparte na ludzkich opiniach (RLHF). Wrażliwe dziedziny, takie jak opieka zdrowotna czy usługi prawne, szczególnie potrzebują ludzkiego nadzoru.

iMerit w erze generatywnej AI

iMerit niedawno uruchomiło Ango Hub Deep Reasoning Lab (DRL), platformę do dostrajania generatywnej AI i interaktywnego rozwoju rozumowania krok po kroku z nauczycielami AI. DRL umożliwia procesy w czasie rzeczywistym i ocenę opartą na ludzkich preferencjach, co prowadzi do bardziej spójnych i dokładnych odpowiedzi modeli na złożone problemy.

Eksperci mogą testować modele, identyfikować słabe punkty i generować czyste dane, korzystając z rozumowania krok po kroku. Współpracują z modelami w czasie rzeczywistym, wysyłając podpowiedzi i poprawki w jednym interfejsie.

Znaczenie ekspertów w procesie dostrajania generatywnej AI

"Expert-in-the-Loop" łączy ludzką inteligencję z robotyczną, aby wprowadzić AI do produkcji. Eksperci sprawdzają, udoskonalają i ulepszają wyniki generowane przez systemy automatyczne.

Na przykład, gdy pewna firma technologiczna potrzebowała ocenić duży zbiór danych medycznych dla swojego chatbota, iMerit zgromadziło zespół pielęgniarek pracujących w konsensusie z lekarzem. Dzięki dyskusjom o przypadkach brzegowych i rewizji wytycznych zespół osiągał konsensus w 99% przypadków, co pozwoliło obniżyć koszty projektu o 72%.

Utrzymanie jakości i rozwoju pracowników na dużą skalę

iMerit ściśle współpracuje z klientami przy definiowaniu standardów jakości, stosując niestandardowe procesy, które zapewniają szybką walidację każdego oznaczenia przez ekspertów. Wysoka retencja pracowników (90%) i skupienie na analityce produkcji to kluczowe czynniki sukcesu.

Firma stale inwestuje w automatyzację, optymalizację i zarządzanie wiedzą, wspierane przez własną platformę szkoleniową iMerit One. To zaangażowanie w rozwój wspiera nie tylko doskonałość operacyjną, ale także długoterminowy rozwój karier pracowników.

Rady dla przyszłych przedsiębiorców AI

AI rozwija się w zawrotnym tempie. Radha Basu radzi, aby wykraczać poza stos technologiczny i słuchać klientów, aby zrozumieć, co jest ważne dla ich biznesu. Wczesni klienci mogą eksperymentować, ale więksi potrzebują pewności, że firma będzie działać długoterminowo.

Warto też starannie dobierać inwestorów i członków zarządu, aby zapewnić zgodność wartości i priorytetów. W iMerit wsparcie zarządu i inwestorów podczas pandemii było kluczowe dla przetrwania firmy.

Dziękujemy za inspirującą rozmowę. Czytelnicy, którzy chcą dowiedzieć się więcej, mogą odwiedzić iMerit.

Google nieustannie rozwija swoje usługi, aby uporządkować globalne zasoby informacji

Firma Google konsekwentnie realizuje swoją wizję, polegającą na porządkowaniu światowych zasobów danych i zapewnianiu do nich łatwego dostępu dla każdego. W ciągu ostatnich kilku miesięcy wprowadzono wiele nowoczesnych rozwiązań technologicznych, które jeszcze lepiej umożliwiają użytkownikom zdobywanie potrzebnych informacji – bez względu na to, jakim językiem się posługują, gdzie mieszkają lub z jakiego urządzenia korzystają.

Google I/O '25 Keynote dostępne także w języku migowym

Poniżej znajduje się nagranie z najważniejszej prezentacji Google I/O '25, przetłumaczonej na amerykański język migowy (ASL), aby zapewnić dostępność treści dla osób niesłyszących:

Google wprowadza nowości w Gemini – aktualizacje czatu AI

Podczas konferencji Google I/O 2025 firma zaprezentowała szereg ulepszeń w swoim chatbotcie AI o nazwie Gemini. Wśród nich znalazły się szersze możliwości multimodalne, nowe modele sztucznej inteligencji oraz lepsza integracja z usługami Google.

Gemini Live dostępne dla wszystkich

Od wtorku funkcja Gemini Live, umożliwiająca korzystanie z kamery i udostępniania ekranu, jest stopniowo wdrażana dla wszystkich użytkowników iOS i Android. Dzięki technologii Project Astra możliwe są rozmowy głosowe z Gemini niemal w czasie rzeczywistym, podczas gdy AI analizuje obraz z kamery lub ekranu smartfona.

Przykładowo, podczas zwiedzania nowego miasta, użytkownik może skierować telefon na budynek i zapytać Gemini o jego architekturę czy historię, otrzymując natychmiastową odpowiedź.

Głębsza integracja z usługami Google

W nadchodzących tygodniach Gemini Live zyska możliwość współpracy z innymi aplikacjami Google. Będzie mógł wyznaczać trasy w Mapach Google, tworzyć wydarzenia w Kalendarzu Google oraz zarządzać listami zadań w Google Tasks.

Walka o rynek asystentów AI

Te aktualizacje to część strategii Google mającej na celu konkurowanie z takimi rozwiązaniami jak ChatGPT OpenAI czy Siri Apple'a. Wzrost popularności chatbotów AI zmienił sposób interakcji użytkowników z internetem i urządzeniami, co stanowi wyzwanie dla takich usług jak Wyszukiwarka Google czy Asystent Google. Podczas I/O 2025 ujawniono, że Gemini ma już 400 milionów aktywnych użytkowników miesięcznie.

Nowe subskrypcje AI

Google wprowadził dwie nowe opcje abonamentowe:

Subskrybenci Ultra otrzymują:

  1. Wyższe limity użycia
  2. Wczesny dostęp do nowych modeli AI
  3. Ekskluzywne funkcje

Użytkownicy Pro i Ultra w USA, którzy mają ustawiony język angielski w Chrome, otrzymają dostęp do Gemini bezpośrednio w przeglądarce. Integracja pozwoli na zadawanie pytań dotyczących treści wyświetlanych na ekranie.

Ulepszenia Deep Research

Google modernizuje Deep Research – funkcję Gemini generującą szczegółowe raporty. Użytkownicy będą mogli przesyłać własne pliki PDF i obrazy, które system połączy z danymi publicznymi, tworząc spersonalizowane analizy. W przyszłości planowana jest bezpośrednia integracja z Dysk Google i Gmailem.

Nowe modele AI dla różnych użytkowników

Darmowi użytkownicy Gemini otrzymają ulepszony model generowania obrazów – Imagen 4, oferujący lepszą obsługę tekstu. Subskrybenci AI Ultra zyskają dostęp do najnowszego modelu wideo Veo 3, który generuje również dopasowane dźwięki.

Domyślnym modelem w Gemini stanie się Gemini 2.5 Flash, zapewniający wyższą jakość odpowiedzi przy mniejszym opóźnieniu.

Wsparcie edukacyjne

Dla studentów korzystających z AI Google wprowadza w Gemini funkcję tworzenia spersonalizowanych quizów, skupiających się na trudnych zagadnieniach. W przypadku błędnych odpowiedzi, system będzie proponował dodatkowe ćwiczenia i plany nauki.

Google rozszerza dostęp do Project Mariner – eksperymentalnego asystenta AI

Podczas konferencji Google I/O 2025 firma Google ogłosiła, że Project Mariner – jej eksperymentalny asystent AI, który przegląda i wykorzystuje strony internetowe – będzie dostępny dla większej liczby użytkowników i developerów. Google wprowadził również znaczące ulepszenia w działaniu Project Mariner, dzięki którym asystent może teraz wykonywać nawet kilkanaście zadań jednocześnie.

Dostępność i integracja z usługami Google

Subskrybenci nowego planu AI Ultra w cenie 249,99 dol. miesięcznie w Stanach Zjednoczonych otrzymają dostęp do Project Mariner. Firma zapowiada również rozszerzenie dostępności na inne kraje. Ponadto Google udostępni możliwości Project Mariner w ramach interfejsu Gemini API oraz Vertex AI, co pozwoli developerom tworzyć aplikacje wykorzystujące tego asystenta.

Rewolucja w interakcji z internetem

Project Mariner, po raz pierwszy zaprezentowany pod koniec 2024 roku (więcej informacji), to najbardziej zaawansowana inicjatywa Google, która ma zmienić sposób korzystania z internetu dzięki asystentom AI. Według przedstawicieli Google Search, Project Mariner jest częścią fundamentalnej zmiany w doświadczeniach użytkowników – zamiast samodzielnie odwiedzać strony i wykonywać zadania, ludzie będą mogli delegować je do asystenta AI.

Przykładowo, użytkownicy Project Mariner mogą kupić bilety na mecz baseballowy lub zamówić zakupy spożywcze online bez konieczności odwiedzania stron trzecich – wystarczy porozmawiać z asystentem Google, który samodzielnie odwiedzi odpowiednie witryny i wykona potrzebne czynności.

Project Mariner
Źródło obrazu: Google

Konkurencja i ulepszenia

Project Mariner konkuruje z innymi asystentami AI, takimi jak Operator od OpenAI, Nova Act od Amazon czy Computer Use od Anthropic. Obecnie wszystkie te narzędzia są w fazie eksperymentalnej, a testy TechCrunch wykazały, że prototypy bywają wolne i podatne na błędy.

Google twierdzi jednak, że uwzględnił opinie wczesnych testerów, aby poprawić działanie Project Mariner. Jak poinformował rzecznik firmy, asystent został zaktualizowany tak, aby działał na maszynach wirtualnych w chmurze – podobnie jak rozwiązania OpenAI i Amazon. Dzięki temu użytkownicy mogą pracować nad innymi projektami, podczas gdy Project Mariner wykonuje zadania w tle. Nowa wersja obsługuje do 10 zadań jednocześnie.

Ta zmiana znacząco zwiększa użyteczność Project Mariner w porównaniu z poprzednią wersją, która działała w przeglądarce użytkownika. Wcześniej, jak zauważono w recenzji, użytkownicy nie mogli korzystać z innych kart lub aplikacji podczas pracy asystenta, co ograniczało jego przydatność.

Nadchodzące funkcje i nowy tryb Agent Mode

W nadchodzących miesiącach Google planuje udostępnić Project Mariner w ramach AI Mode – funkcji wyszukiwania Google napędzanej przez sztuczną inteligencję. Początkowo będzie ona dostępna tylko w Search Labs, eksperymentalnym środowisku testowym Google. Firma współpracuje z takimi platformami jak Ticketmaster, StubHub, Resy i Vagaro, aby zintegrować ich usługi z asystentem.

Dodatkowo Google zaprezentował wczesną wersję demo nowej funkcji o nazwie "Agent Mode". Łączy ona przeglądanie internetu z narzędziami badawczymi, integracjami oraz innymi aplikacjami Google. Subskrybenci planu Ultra wkrótce otrzymają dostęp do Agent Mode na komputerach.

Przyszłość asystentów AI w Google

Podczas tegorocznej konferencji I/O Google pokazał, że jest gotowy wprowadzić w życie koncepcje asystentów AI, o których mówił od lat. Project Mariner, Agent Mode i AI Mode mogą zmienić sposób poruszania się po sieci oraz interakcji między sprzedawcami a klientami. Choć asystenci przeglądający internet mają ogromny wpływ na gospodarkę cyfrową, Google wydaje się zdecydowany na ich szerokie udostępnienie.

Google I/O 2025 – najważniejsze informacje

Konferencja Google I/O 2025, najważniejsze wydarzenie dla programistów organizowane przez Google, odbywa się we wtorek i środę w Shoreline Amphitheatre w Mountain View. Na miejscu dostarczamy najświeższe informacje z tego wydarzenia.

Podczas I/O prezentowane są nowości ze wszystkich obszarów działalności Google. Pojawiło się wiele doniesień dotyczących Androida, Chrome, wyszukiwarki Google, YouTube'a oraz – oczywiście – asystenta AI o nazwie Gemini.

Google zorganizował osobne wydarzenie poświęcone aktualizacjom Androida: The Android Show. Firma zaprezentowała nowe sposoby wyszukiwania zgubionych telefonów z Androidem i innych przedmiotów, dodatkowe funkcje na poziomie urządzenia dla programu Advanced Protection, narzędzia zabezpieczające przed oszustwami i kradzieżami oraz nowy język projektowania o nazwie Material 3 Expressive.

Oto wszystkie nowości zaprezentowane na Google I/O 2025.

Gemini Ultra

Gemini Ultra (na razie tylko w USA) oferuje "najwyższy poziom dostępu" do aplikacji i usług Google'a wspieranych przez sztuczną inteligencję. Jego miesięczny koszt to 249,99 dolarów i obejmuje generator wideo Veo 3, nową aplikację do edycji filmów o nazwie Flow oraz zaawansowaną funkcję AI o nazwie Gemini 2.5 Pro Deep Think, która jeszcze nie została udostępniona.

AI Ultra zapewnia wyższe limity w platformie NotebookLM oraz w aplikacji do przetwarzania obrazów Whisk. Subskrybenci AI Ultra otrzymują również dostęp do chatbota Gemini w Chrome, narzędzi "agentycznych" opartych na technologii Project Mariner, YouTube Premium oraz 30 TB przestrzeni dyskowej w Google Drive, Google Photos i Gmailu.

Deep Think w Gemini 2.5 Pro

Deep Think to "ulepszony" tryb rozumowania w modelu Gemini 2.5 Pro. Pozwala on modelowi rozważyć wiele odpowiedzi na pytanie przed udzieleniem odpowiedzi, co poprawia jego wydajność w niektórych testach.

Dołącz do TechCrunch Sessions: AI

Zarezerwuj miejsce na nasze wiodące wydarzenie branżowe poświęcone sztucznej inteligencji z prelegentami z OpenAI, Anthropic i Cohere. Przez ograniczony czas bilety kosztują jedynie 292 dolary za cały dzień eksperckich wykładów, warsztatów i wartościowej wymiany kontaktów.

Berkeley, CA | 5 czerwca

ZAREJESTRUJ SIĘ TERAZ

Google nie zdradził szczegółów na temat działania Deep Think, ale może on przypominać modele o1-pro i nadchodzące o3-pro od OpenAI, które prawdopodobnie wykorzystują silnik do wyszukiwania i syntezy najlepszego rozwiązania danego problemu.

Deep Think jest dostępny dla "zaufanych testerów" przez API Gemini. Google poinformował, że potrzebuje dodatkowego czasu na przeprowadzenie ocen bezpieczeństwa przed szerszym udostępnieniem tej funkcji.

Veo 3 – model AI generujący filmy

Google twierdzi, że Veo 3 potrafi generować efekty dźwiękowe, szumy w tle, a nawet dialogi dołączane do tworzonych filmów. Veo 3 oferuje również lepszą jakość generowanych materiałów w porównaniu z poprzednikiem, Veo 2.

Veo 3 będzie dostępny od wtorku w aplikacji chatbota Gemini dla subskrybentów planu AI Ultra za 249,99 dolarów miesięcznie. Można go uruchomić za pomocą tekstu lub obrazu.

Imagen 4 – generator obrazów AI

Według Google, Imagen 4 jest szybki – szybszy niż Imagen 3. Wkrótce ma być jeszcze szybszy. W najbliższej przyszłości Google planuje wydać wariant Imagen 4, który będzie nawet 10 razy szybszy niż Imagen 3.

Imagen 4 potrafi renderować "drobne szczegóły", takie jak tkaniny, krople wody czy sierść zwierząt. Obsługuje zarówno style fotorealistyczne, jak i abstrakcyjne, tworząc obrazy w różnych proporcjach i rozdzielczości do 2K.

Zarówno Veo 3, jak i Imagen 4 będą wykorzystywane w aplikacji Flow, narzędziu Google'a do tworzenia filmów wspieranym przez sztuczną inteligencję.

Aktualizacje aplikacji Gemini

Google poinformował, że aplikacje Gemini mają ponad 400 milionów aktywnych użytkowników miesięcznie.

Funkcja Gemini Live, która umożliwia udostępnianie obrazu z kamery lub ekranu, zostanie udostępniona w tym tygodniu wszystkim użytkownikom na iOS i Androidzie. Ta funkcja, oparta na projekcie Astra, pozwala na prowadzenie niemal natychmiastowych rozmów głosowych z Gemini, jednocześnie przesyłając wideo z kamery smartfona lub ekranu do modelu AI.

Google zapowiedział, że Gemini Live będzie również coraz ściślej integrować się z innymi aplikacjami firmy w nadchodzących tygodniach: wkrótce będzie mógł wskazywać trasy w Mapach Google, tworzyć wydarzenia w Kalendarzu Google oraz listy zadań w Google Tasks.

Google aktualizuje również funkcję Deep Research, agenta AI generującego szczegółowe raporty, umożliwiając użytkownikom przesyłanie własnych prywatnych plików PDF i obrazów.

Stitch

Stitch to narzędzie AI pomagające projektować interfejsy aplikacji internetowych i mobilnych, generując niezbędne elementy UI i kod. Stitch można aktywować za pomocą kilku słów lub nawet obrazu, dostarczając kod HTML i CSS dla generowanych projektów.

Stitch jest nieco bardziej ograniczony w porównaniu z niektórymi innymi narzędziami do kodowania, ale oferuje sporo opcji dostosowywania.

Google rozszerzył również dostęp do Jules, swojego agenta AI mającego pomóc programistom w naprawianiu błędów w kodzie. To narzędzie pomaga zrozumieć złożony kod, tworzyć żądania ściągnięcia na GitHubie oraz zarządzać niektórymi zaległymi zadaniami programistycznymi.

Project Mariner

Project Mariner to eksperymentalny agent AI Google'a, który przegląda i wykorzystuje strony internetowe. Google poinformował, że znacznie zaktualizował sposób działania Project Mariner, pozwalając agentowi na wykonywanie niemal tuzina zadań jednocześnie, i teraz udostępnia go użytkownikom.

Na przykład użytkownicy Project Mariner mogą kupić bilety na mecz baseballowy lub zrobić zakupy spożywcze online, nigdy nie odwiedzając strony trzeciej. Wystarczy porozmawiać z agentem AI Google'a, a ten odwiedzi strony i wykona odpowiednie czynności.

Project Astra

Niskopoziomowe, multimodalne doświadczenie AI Google'a, Project Astra, będzie napędzać szereg nowych funkcji w Wyszukiwarce, aplikacji Gemini AI oraz produktach tworzonych przez zewnętrznych programistów.

Project Astra narodził się w Google DeepMind jako sposób na prezentację niemal natychmiastowych, multimodalnych możliwości AI. Firma poinformowała, że obecnie pracuje nad okularami Project Astra we współpracy z partnerami, takimi jak Samsung i Warby Parker, ale nie podała jeszcze konkretnej daty premiery.

Tryb AI

Google wprowadza Tryb AI, eksperymentalną funkcję Wyszukiwarki, która pozwala użytkownikom zadawać złożone, wieloczęściowe pytania przez interfejs AI. Będzie dostępna dla użytkowników w USA w tym tygodniu.

Tryb AI będzie obsługiwać złożone dane w zapytaniach dotyczących sportu i finansów oraz oferować opcję "przymierz to" dla odzieży. Funkcja Search Live, która pojawi się później tego lata, umożliwi zadawanie pytań w oparciu o to, co kamera smartfona widzi w czasie rzeczywistym.

Gmail będzie pierwszą aplikacją obsługującą spersonalizowany kontekst.

Beam – telekonferencje 3D

Beam, wcześniej znany jako Starline, wykorzystuje kombinację oprogramowania i sprzętu, w tym sześciokamerową matrycę i niestandardowy wyświetlacz światła, aby umożliwić użytkownikom rozmowę z kimś tak, jakby byli w tym samym pokoju. Model AI przekształca wideo z kamer, które są ustawione pod różnymi kątami i skierowane na użytkownika, w renderowanie 3D.

Beam Google'a oferuje "niemal perfekcyjne" śledzenie głowy z dokładnością do milimetra i przesyłanie wideo w 60 klatkach na sekundę. W połączeniu z Google Meet, Beam zapewnia funkcję tłumaczenia mowy w czasie rzeczywistym wspieraną przez AI, która zachowuje głos, ton i wyraz twarzy oryginalnego mówcy.

A mówiąc o Google Meet, Google ogłosił, że Meet otrzyma tłumaczenie mowy w czasie rzeczywistym.

Więcej aktualizacji AI

Google wprowadza Gemini w Chrome, co da użytkownikom dostęp do nowego asystenta przeglądania wspieranego przez AI, który pomoże im szybko zrozumieć kontekst strony i wykonać zadania.

Gemma 3n to model zaprojektowany do płynnego działania na telefonach, laptopach i tabletach. Będzie dostępny w wersji preview od wtorku; według Google obsługuje dźwięk, tekst, obrazy i filmy.

Firma ogłosiła również mnóstwo nowych funkcji AI w Workspace dla Gmaila, Google Docs i Google Vids. W szczególności Gmail otrzyma spersonalizowane inteligentne odpowiedzi i nową funkcję czyszczenia skrzynki odbiorczej, a Vids – nowe sposoby tworzenia i edycji treści.

Przeglądy wideo pojawią się w NotebookLM, a firma udostępniła SynthID Detector, portal weryfikacyjny wykorzystujący technologię znakowania wodnego SynthID do identyfikacji treści generowanych przez AI. Lyria RealTime, model AI napędzający eksperymentalną aplikację do produkcji muzyki, jest teraz dostępny przez API.

Wear OS 6

Wear OS 6 wprowadza jednolity styl czcionek w aplikacjach dla czystszego wyglądu, a zegarki Pixel otrzymują dynamiczne motywy synchronizujące kolory aplikacji z tarczami zegarka.

Główną obietnicą nowej platformy projektowej jest umożliwienie programistom tworzenia lepszych opcji dostosowywania w aplikacjach oraz płynnych przejść. Firma udostępnia wytyczne projektowe dla programistów wraz z plikami projektowymi Figma.

Google Play

Google ulepsza sklep Play dla programistów Androida, dodając nowe narzędzia do zarządzania subskrypcjami, strony tematyczne umożliwiające użytkownikom zgłębianie konkretnych zainteresowań, próbki dźwiękowe dające przedsmak zawartości aplikacji oraz nowe doświadczenie płatnicze, które ułatwia sprzedaż dodatków.

Strony "przeglądania tematów" dla filmów i seriali (na razie tylko w USA) połączą użytkowników z aplikacjami powiązanymi z wieloma produkcjami. Ponadto programiści otrzymają dedykowane strony do testowania i wydań oraz narzędzia do monitorowania i ulepszania procesu wdrażania aplikacji. Programiści korzystający z Google mogą teraz również wstrzymywać wydania aplikacji, jeśli pojawi się krytyczny problem.

Narzędzia do zarządzania subskrypcjami również zostaną ulepszone dzięki płatnościom za wiele produktów. Wkrótce programiści będą mogli oferować dodatki do subskrypcji wraz z głównymi subskrypcjami, wszystko w ramach jednej płatności.

Android Studio

Android Studio zintegruje nowe funkcje AI, w tym "Journeys", możliwość "agentycznego AI", która zbiega się z wydaniem modelu Gemini 2.5 Pro. Tryb "Agent Mode" będzie w stanie obsłużyć bardziej złożone procesy rozwojowe.

Android Studio otrzyma nowe możliwości AI, w tym ulepszoną funkcję "crash insights" w panelu App Quality Insights. To ulepszenie, napędzane przez Gemini, przeanalizuje kod źródłowy aplikacji, aby zidentyfikować potencjalne przyczyny awarii i zasugerować poprawki.

Planeta AI 2025 
menu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram