Dzisiejszy układ sił w AI widać już nie w rankingach modeli, tylko w miejscach, gdzie zaczyna płynąć kapitał i odpowiedzialność. OpenAI chce wejść głębiej w codzienną pracę programistów i naukowców. Cerebras próbuje zamienić boom na chipy AI w giełdową wycenę. Tesla wywozi autonomię z pokazów na ulice kolejnych miast. Nawet sklepy z aplikacjami, które miały umrzeć pod naporem asystentów, znów rosną. AI przestaje być obietnicą. Zaczyna być infrastrukturą.

OpenAI chce być warstwą roboczą, nie tylko czatem
Codex wychodzi poza kod
OpenAI ogłosiło dużą aktualizację Codexa. Narzędzie ma teraz nie tylko pisać kod, ale też obsługiwać komputer kursorem, pracować w przeglądarce, generować obrazy, zapamiętywać preferencje i wykonywać zadania cykliczne. Do tego dochodzi ponad 90 nowych wtyczek, obsługa wielu terminali, podgląd dokumentów i zdalne środowiska przez SSH. To ruch ważniejszy niż kolejna poprawka modelu, bo zmienia Codexa z pomocnika w coś bliższego cyfrowemu współpracownikowi.
Do tej pory wiele narzędzi AI działało jak sprytny konsultant: coś podpowiedział, coś napisał, ale końcową robotę i tak trzeba było dowieźć samemu. OpenAI próbuje przesunąć granicę. Jeśli system potrafi klikać po aplikacjach, pamięta twoje poprawki i może sam wrócić do zadania jutro rano, przestaje być wyszukiwarką z ładnym interfejsem. Zaczyna przypominać młodszego pracownika, któremu delegujesz fragment procesu, a nie pojedyncze pytanie.
Aktualizacja Codexa to rozszerzenie z modelu generującego kod w stronę pełnego środowiska wykonawczego. Najmocniejsze elementy to obsługa komputera, pamięć preferencji, automatyzacje wznawiane w czasie i szeroki pakiet integracji z narzędziami deweloperskimi. To zwiększa retencję kontekstu i obniża koszt przełączania między IDE, przeglądarką, terminalem i zewnętrznymi usługami. W praktyce OpenAI nie walczy już tylko o jakość odpowiedzi, ale o kontrolę nad całym przebiegiem pracy.
GPT-Rosalind idzie do laboratoriów
Tego samego dnia OpenAI pokazało GPT-Rosalind, model do badań biologicznych, odkrywania leków i medycyny translacyjnej. Ma pomagać w analizie literatury, planowaniu eksperymentów i pracy na danych biologicznych. Model trafia do programu ograniczonego dostępu, a wraz z nim rusza wtyczka do ponad 50 narzędzi naukowych. Wśród pierwszych partnerów są Amgen, Moderna i Thermo Fisher.
Tu chodzi o coś więcej niż kolejny pokaz siły modelu. Przemysł farmaceutyczny działa wolno, bo musi działać ostrożnie. Jeśli AI skraca pierwsze miesiące analizy, przeglądu publikacji i budowania hipotez, oszczędza nie tylko czas, ale też bardzo drogie pomyłki. To trochę jak zatrudnienie dodatkowego zespołu analityków, którzy nigdy nie śpią, ale nadal potrzebują seniora, który odróżni obiecujący trop od kosztownej ślepej uliczki.
GPT-Rosalind to sygnał specjalizacji pionowej. OpenAI zamiast jednego modelu do wszystkiego buduje wariant zoptymalizowany pod obiegi danych naukowych, pracę z narzędziami i wieloetapowe rozumowanie w chemii, genomice i biologii białek. Jeśli model rzeczywiście poprawia jakość hipotez na wczesnym etapie badań, przewaga nie będzie polegała na samym wnioskowaniu, tylko na skróceniu cyklu badawczo-decyzyjnego.

Cerebras sprawdza, czy boom na chipy wytrzyma giełdę
Cerebras złożył dokumenty przed debiutem giełdowym. Firma wraca do planu IPO po wcześniejszym opóźnieniu związanym z kontrolą inwestycji z Abu Zabi. Tym razem wchodzi do gry z mocniejszą historią: 510 mln dolarów przychodu w 2025 roku, partnerstwo z Amazon Web Services i umowa z OpenAI, której wartość ma przekraczać 10 mld dolarów. To ważny test dla całego rynku infrastruktury AI, bo inwestorzy dostaną rzadką okazję, by wycenić nie aplikację, tylko dostawcę sprzętu i mocy obliczeniowej.
W ostatnich dwóch latach niemal każdy mówił, że na AI zarobi ten, kto dostarczy łopaty do nowej gorączki złota. Cerebras chce sprawdzić to na żywym organizmie rynku kapitałowego. Jeśli inwestorzy kupią tę historię, kolejne firmy od chipów i centrów danych ustawią się w kolejce. Jeśli nie, usłyszymy pierwsze poważniejsze pytanie, czy wyceny wokół AI nie wyprzedziły realnych marż.
IPO Cerebrasa jest ważne dlatego, że dostarcza twardy sygnał cenowy dla segmentu sprzętowego poza Nvidią. Firma pokazuje przychody, kontrakty z hyperscalerem i dużym odbiorcą modeli oraz narrację o szybszym wnioskowaniu. Rynek będzie patrzył nie tylko na skalę sprzedaży, ale też na jakość tego przychodu, koncentrację klientów i trwałość przewagi wobec dominującego ekosystemu Nvidii.

Tesla wystawia autonomię na kolejny test uliczny
Tesla rozszerza usługę autonomicznych taksówek na Dallas i Houston. Według TechCrunch na razie skala jest niewielka, bo społeczne śledzenie floty pokazuje po jednym aktywnym aucie w każdym z tych miast, wobec 46 w Austin. Mimo to ruch jest istotny. Po starcie w Austin i wejściu w tryb jazd bez kierowcy bezpieczeństwa firma próbuje pokazać, że to już nie pojedynczy eksperyment. Problem w tym, że w lutym sama podała, iż robotaksówki w Austin brały udział w 14 kolizjach od startu usługi.
To klasyczny moment, w którym prezentacja przechodzi w rachunek sumienia. Dopóki autonomiczne auta jeżdżą w jednym mieście, można mówić o pilotażu. Gdy wchodzą do kolejnych lokalizacji, pojawia się pytanie nie o wizję, tylko o procedury, odpowiedzialność i skalowalność. Dla Tesli Dallas i Houston to nie tylko ekspansja. To publiczny sprawdzian, czy firma naprawdę potrafi powielać usługę, która nie kończy się nagłówkiem po pierwszej stłuczce.
Ekspansja na dwa kolejne miasta zwiększa zasięg operacyjny Tesli, ale nie rozwiązuje kluczowego napięcia między tempem wdrożenia a profilem ryzyka. Skala floty jest jeszcze symboliczna, za to dane o 14 kolizjach w Austin ustawiają wysoki próg dla dalszej ekspansji. Teraz liczyć się będzie nie marketing, tylko gęstość incydentów, nadzór regulacyjny i powtarzalność działania w nowych warunkach drogowych.

Sklep z aplikacjami jednak nie umiera
Nowe dane Appfigures pokazują, że liczba premier aplikacji w pierwszym kwartale 2026 wzrosła o 60 proc. rok do roku w App Store i Google Play razem. Na samym iOS wzrost sięga 80 proc., a w kwietniu jest jeszcze wyższy. TechCrunch stawia prostą hipotezę: narzędzia AI obniżyły próg wejścia na tyle, że więcej ludzi może budować i wypuszczać własne aplikacje. Zyskują zwłaszcza kategorie użytkowe, produktywność, styl życia oraz zdrowie i fitness.
Jeszcze niedawno modne było hasło, że aplikacje znikną, bo wszystko załatwią asystenci AI. Rzeczywistość okazuje się bardziej przyziemna. Jeśli stworzenie prostej aplikacji staje się tańsze i szybsze, rynek nie kurczy się, tylko puchnie. To nie oznacza, że każda nowa aplikacja będzie dobra. Oznacza, że AI działa dziś bardziej jak narzędzie do otwierania rynku niż do jego zamykania.
Wzrost premier aplikacji jest pośrednim dowodem, że generatywne narzędzia przesuwają ekonomię tworzenia oprogramowania mobilnego. Spada koszt prototypu, wdrożenia i iteracji, więc rośnie liczba prób wejścia na rynek. Jednocześnie rośnie presja na moderację, kontrolę jakości i wykrywanie oszustw, bo platformy dostają więcej aplikacji przy podobnej zdolności recenzji.

Anthropic wraca do gry w Waszyngtonie
Jeszcze niedawno Pentagon oznaczył Anthropic jako ryzyko w łańcuchu dostaw. Teraz firma prowadzi rozmowy z wysokimi przedstawicielami administracji Trumpa, a spotkanie Dario Amodeiego z sekretarzem skarbu Scottem Bessentem i szefową personelu Białego Domu Susie Wiles obie strony opisują jako konstruktywne. Spór z resortem obrony nie zniknął, ale sygnał polityczny jest jasny: część amerykańskiej administracji nie chce odciąć się od jednego z kluczowych dostawców modeli.
W sektorze AI relacje z państwem zaczynają przypominać relacje sektora zbrojeniowego czy energetycznego. Nie wystarczy mieć dobry produkt. Trzeba jeszcze być firmą, z którą państwo chce współpracować, nawet jeśli równocześnie toczy z tobą spór. Dla Anthropic to dobra wiadomość, bo pokazuje, że polityczne drzwi nie zostały zatrzaśnięte. Dla rynku to przypomnienie, że regulacja i kontrakty rządowe będą coraz mocniej mieszać się z rozwojem modeli.
Ta historia pokazuje rosnące znaczenie geopolitycznego otoczenia modeli. Anthropic pozostaje w konflikcie z Pentagonem o zasady użycia technologii, ale jednocześnie odzyskuje kanał rozmowy z resztą administracji. To ważne, bo dostęp do kontraktów federalnych, infrastruktury krytycznej i sektorów regulowanych będzie jednym z głównych czynników przewagi, obok jakości modelu i kosztu wnioskowania.

Google próbuje zamienić dobre prompty w nawyk
W Chrome pojawia się biblioteka umiejętności dla Gemini. Użytkownik może zapisać skuteczny zestaw poleceń i uruchamiać go później na dowolnej stronie lub na kilku kartach jednocześnie. Google dorzuca też gotowe szablony do zakupów, przeglądu dokumentów czy prostych zadań produktywności. To mały ruch produktowy, ale z dużym znaczeniem, bo zamienia pojedynczy trik w powtarzalny sposób pracy.
Większość ludzi korzysta z AI chaotycznie. Raz zadziała, raz nie, a potem trudno odtworzyć dobry wynik. Google próbuje to uporządkować. Zapisany zestaw poleceń działa jak własna makra do przeglądarki, tylko zamiast arkusza kalkulacyjnego automatyzujesz rozmowę z asystentem. Jeśli to chwyci, AI przestanie być sztuczką na pokaz i stanie się przyzwyczajeniem.
Biblioteka umiejętności w Chrome to próba produktowego domknięcia luki między jednorazowym promptingiem a lekką automatyzacją pracy. Powtarzalne polecenia uruchamiane na bieżącej stronie lub wielu kartach zwiększają użycie Gemini w przeglądarce bez potrzeby pisania pełnych agentów. To skromna funkcja, ale dobrze wpisuje się w walkę o codzienny interfejs użytkownika.
Najcenniejsze firmy AI tego roku mogą nie wygrać najlepszym modelem. Wygrają tym, że wejdą głębiej w cudzą codzienność.
Co mówią twórcy
Nate Herk — Claude Just Destroyed Every Video Editing Tool
- Generowanie wideo przestaje być jednorazowym efektem, a staje się pętlą szybkich poprawek na znacznikach czasu
- Wąskim gardłem nie jest już montaż, tylko gust i umiejętność krytycznej korekty
- Największy zysk daje nie sam model, lecz połączenie transkrypcji, kodu i renderu w jednym obiegu pracy
Greg Isenberg — Claude Design: Best AI Design Tool Ever?
- Największą przewagą nowej fali narzędzi projektowych jest prowadzenie użytkownika pytaniami, zanim powstanie pierwszy ekran
- Niska szczegółowość na starcie oszczędza budżet i ogranicza poprawianie błędnych założeń w późnym etapie
- Wideo nadal odstaje od projektowania interfejsów, więc AI lepiej radzi sobie dziś z koncepcją niż z gotową reklamą
Leon van Zyl — Claude Code: Build an AI Agent That Finds Vulnerabilities
- Największą dźwignią nie jest trenowanie własnego modelu, tylko spisanie procedury bezpieczeństwa jako powtarzalnej umiejętności
- Nawet prosty audyt oparty na OWASP daje przewagę, bo większość szybkich projektów ignoruje dziś bezpieczeństwo
Alex Finn — The creator of Claude Code just revealed 7 secrets to using Claude Code
- Najlepsze wyniki daje długi, gęsty brief na początku, a nie ciągłe dopowiadanie zadania po kawałku
- Tryb autonomiczny ma sens dopiero wtedy, gdy raport końcowy i powiadomienia pozwalają szybko wrócić do kontekstu
Nate B. Jones — Karpathy's Agent Ran 700 Experiments While He Slept. It's Coming For You.
- Prawdziwy przełom nie polega na mądrzejszym agencie, tylko na pętli tysięcy małych eksperymentów pod twardą metrykę
- Firmy polegną nie na samym modelu, lecz na braku pamięci zewnętrznej, testów, piaskownicy i nadzoru

Koncentrat
Ten dzień spina jedna myśl. AI zaczyna być wyceniane nie według tego, co umie powiedzieć, tylko według tego, gdzie potrafi wejść i ile ryzyka bierze na siebie. OpenAI idzie w pracę i naukę. Cerebras w kapitał. Tesla w ulice. Anthropic w państwo. Google w codzienny nawyk. Kto zostanie tylko przy efektownym demie, ten za chwilę będzie wyglądał jak firma od fajnych zabawek. Prawdziwa walka toczy się już o infrastrukturę, procedury i przyzwyczajenia użytkowników.