Meta Platforms podpisała z AMD wieloletnią umowę[3] na dostarczenie do 6 GW mocy obliczeniowej w postaci układów GPU Instinct i powiązanych CPU do centrów danych AI. Niezależne analizy określają to jako największy pojedynczy kontrakt infrastrukturalny w dotychczasowej erze sztucznej inteligencji. Struktura porozumienia obejmuje warranty na 160 mln akcji AMD, czyli około 10% spółki, z vestingiem uzależnionym od dostarczania kolejnych gigawatów mocy i progów cenowych akcji. Szacunki wartości tej współpracy sięgają nawet 100 mld dolarów w ciągu 5 lat. Dla Mety oznacza to skokowy wzrost zdolności trenowania i uruchamiania modeli z rodziny Llama oraz agentów, a dla rynku – osłabienie dotychczasowej dominacji Nvidii w segmencie GPU dla LLM.
Rekordowy kontrakt Meta i AMD
Równolegle 61 organów ochrony danych z całego świata[5], w tym polski Urzad Ochrony Danych Osobowych (UODO), przyjęło wspólne stanowisko „Joint Statement on AI‑Generated Imagery” koordynowane przez Global Privacy Assembly. Dokument z 23 lutego 2026 r. ostrzega przed rosnącymi zagrożeniami związanymi z realistycznymi obrazami i wideo generowanymi przez AI, w tym deepfake’ami i niekonsensualną pornografią. Regulatorzy jasno wskazują, że tworzenie intymnych treści bez zgody może w wielu jurysdykcjach stanowić przestępstwo oraz naruszenie przepisów o ochronie danych, takich jak RODO. W praktyce wyznacza to globalny standard oczekiwań wobec dostawców i użytkowników systemów generatywnych, wzmacniając podstawę do kontroli i postępowań także w Polsce.
Regulatorzy biorą na cel deepfake’i
Analitycy prawni oraz Komisja Europejska doprecyzowali harmonogram[10] wdrażania rozporządzenia AI Act, który wyznacza ramy dla wykorzystania LLM i agentów w Unii Europejskiej. Zakazy dotyczące systemów AI uznanych za „nieakceptowalne” oraz obowiązki w zakresie edukacji użytkowników AI zaczną obowiązywać 2 lutego 2025 r.. Kolejny etap, od 2 sierpnia 2025 r., obejmie dostawców modeli ogólnego przeznaczenia (GPAI), a pełne wymogi dla systemów wysokiego ryzyka – w tym wielu zastosowań LLM w finansach, zdrowiu, administracji czy zatrudnieniu – wejdą w życie 2 sierpnia 2026 r.. Za najpoważniejsze naruszenia AI Act przewidziano kary sięgające nawet 35 mln euro lub 7% globalnego obrotu przedsiębiorstwa, co zmusza podmioty działające w Polsce do inwentaryzacji zastosowań AI i budowy dokumentacji zarządzania ryzykiem.
AI Act wyznacza twarde terminy
Na rynku modeli pojawiły się nowe konstrukcje nastawione na potrzeby agentów. Startup Inception ogłosił model Mercury 2[11] – dyfuzyjny LLM, który generuje tekst poprzez równoległe „odszumianie” wielu tokenów zamiast klasycznej sekwencyjnej predykcji. Według danych firmy Mercury 2 osiąga przepustowość około 1000 tokenów na sekundę przy jakości porównywalnej z modelami Claude 4.5 Haiku i GPT‑5.2 Mini w testach rozumowania, a niezależne wstępne pomiary mówią miejscami o 10–13‑krotnym przyspieszeniu względem małych modeli autoregresyjnych. Z kolei Guide Labs udostępnił open‑source’owy model Steerling‑8B o 8 mld parametrów, trenowany na około 1,35 bln tokenów, zaprojektowany tak, by każdy wygenerowany token można było powiązać z warstwą koncepcji i konkretnymi fragmentami danych treningowych. Firma deklaruje osiągnięcie około 90% jakości czołowych modeli przy od 2 do 7 razy mniejszej liczbie danych, co ma ułatwić audyty i kontrolę uprzedzeń w sektorach regulowanych.
Nowe modele dla ultraszybkich i przejrzystych agentów
W warstwie produktów agentowych trwa przejście od narzędzi deweloperskich do gotowych rozwiązań masowych. Anthropic rozbudował platformę Claude Cowork o 10[18] wyspecjalizowanych agentów dla finansów, HR, prawa, inżynierii i designu, tworzonych m.in. z Fact. Set, S&P Global i London Stock Exchange Group (LSEG), z pierwszymi wdrożeniami u klientów takich jak Thomson Reuters czy RBC Wealth Management. Startup Cursor, twórca środowiska IDE zintegrowanego z agentami, wprowadził możliwość uruchamiania wielu agentów kodujących w równoległych środowiskach deweloperskich w chmurze, z automatycznym testowaniem zmian i dokumentowaniem pracy, a jego wycena sięga obecnie około 29,3 mld dolarów. Z kolei firma Veza zaprezentowała Veza Access Agents i moduł AI Agent Security, które mają automatycznie mapować uprawnienia agentów, wykrywać „shadow AI” i analizować potencjalny „blast radius” w infrastrukturze, przygotowując duże organizacje na sytuację, w której liczba agentów AI przewyższy ludzi nawet 80 do 1.
Agenci wchodzą do firm i smartfonów
Najbardziej widocznym konsumenckim sygnałem zmiany jest premiera serii Samsung Galaxy S26[24], którą Samsung pozycjonuje jako „Agentic AI Phone”. Urządzenia integrują na poziomie systemu trzech agentowych asystentów: Bixby, Google Gemini oraz rozwiązanie Perplexity AI oparte na API Sonar. Agenci otrzymali własne komendy głosowe i dostęp do natywnych aplikacji, takich jak Notatki, Kalendarz czy Galeria, a także wybranych usług zewnętrznych, wykonując złożone zadania w tle, na przykład organizację podróży czy rezerwację usług. W połączeniu z inwestycjami takich firm jak Axelera AI, która pozyskała ponad 250 mln dolarów na rozwój energooszczędnych chipów inference o wydajności do 629 TOPS, oznacza to przyspieszoną popularyzację agentów zarówno w infrastrukturze centrów danych, jak i w urządzeniach edge i smartfonach, z bezpośrednim przełożeniem na rynek i regulacje w Polsce.
Źródła
Powiązane wpisy:
- Era agentów AI przyspiesza: chińskie modele, GLM‑5, EU AI Grid i pierwsze incydenty bezpieczeństwa
- NVIDIA, nowe regulacje i fala finansowania. Tydzień, w którym agenci AI wchodzą do głównego nurtu
- Kapitał, agenci i regulacje: tydzień przełomu w globalnym wyścigu AI
- Tygodniowy przegląd AI: dominacja Gemini 3 Pro, megafunding dla xAI i nowe regulacje w Kalifornii
