Dziś obchodzimy: Międzynarodowy Dzień Romów

Era agentów AI przyspiesza: chińskie modele, GLM‑5, EU AI Grid i pierwsze incydenty bezpieczeństwa

W ciągu zaledwie kilku dni trzy duże chińskie podmioty – Alibaba Group z Qwen3.5, Byte. Dance z Doubao 2.0 oraz Mini. Max z modelem M2.5 – wypuściły lub zaktualizowały frontierowe modele projektowane pod erę agentów[1].

Chińskie modele i otwarty GLM‑5

Qwen3.5 w architekturze mixture‑of‑experts ma 397 mld parametrów[5] (aktywnych 17 mld na token), a Alibaba deklaruje, że jest o 60% tańszy w użyciu[4] i 8 razy wydajniejszy przy dużych obciążeniach niż Qwen2.5.

Zmiany w ofercie OpenAI i Google

Doubao 2.0 w wersji pro ma według Byte. Dance oferować złożone wnioskowanie[6] na poziomie GPT‑5.2 i Gemini 3 Pro przy kosztach niższych „o rząd wielkości”, a sam Doubao ma już 155 mln tygodniowo aktywnych użytkowników w Chinach[7].

Europejska infrastruktura i finansowanie warstwy niezawodności

Mini. Max M2.5, nastawiony na programowanie i agentów, osiąga 80,2% w teście SWE‑Bench Verified[2], 51,3% w Multi‑SWE‑Bench i 76,3% w Browse. Comp, przy mniejszej liczbie rund wyszukiwania, a cennik zaczyna się od ok. 0,15 USD za 1 mln tokenów wejściowych[8] i 1,20 mln wyjściowych w wersji standard.

Równolegle chińska spółka Zhipu AI wypuściła GLM‑5 – ogromny model mixture‑of‑experts[9] z 744 mld parametrów, z czego ok. 40–44 mld jest aktywnych na token. Model działa na kontekście ok. 200 tys. tokenów, został wytrenowany na 28,5 bln tokenów[11] i jest dostępny z otwartymi wagami na platformie Hugging Face pod licencją MIT, co pozwala na pełne, komercyjne wykorzystanie i modyfikacje. przekroczył próg 50 punktów w Artificial Analysis Intelligence Index , poprawiając wynik o ok. 8 punktów względem poprzedniej wersji i jednocześnie obniżając wskaźnik halucynacji. Cały trening przeprowadzono na chińskich chipach Huawei Ascend, co sygnalizuje uniezależnianie się od GPU Nvidii i wzmacnia znaczenie tego modelu dla integratorów planujących wdrożenia on‑premises.

Agentowe wdrożenia w biznesie

Po stronie zachodnich dostawców ogłosił duży upgrade trybu Gemini 3 Deep Think[13], specjalizowanego w zadaniach naukowych i inżynierskich. Model osiąga 48,4% w benchmarku Humanity’s Last Exam bez użycia narzędzi[14], 84,6% w ARC‑AGI‑2 i 3455 punktów Elo na platformie Codeforces, co plasuje go na poziomie czołowych programistów. Tryb Deep Think jest dostępny w aplikacji Gemini[15] dla subskrybentów Google AI Ultra oraz przez Gemini API dla wybranych klientów korporacyjnych. Jednocześnie faktycznie wyłączyło GPT‑4o, GPT‑4.1, GPT‑4.1 mini i o4‑mini[16], pozostawiając je jedynie tymczasowo w API do 16 lutego 2026 r.[20] , a w wersjach Business, Enterprise i Edu – w Custom GPTs do 31 marca 2026 r. GPT‑4o odpowiadał już tylko za ok. 0,1% dziennych aktywnych użytkowników[22], większość przeszła na modele GPT‑5.1 i GPT‑5.2, co wymusza pilną migrację na nowe generacje u dotychczasowych użytkowników.

Nowe regulacje i realne incydenty bezpieczeństwa

W Europie kluczową nowością jest start projektu EU AI Grid. Spółka Embedded LLM ogłosiła 14 lutego 2026 r.[26] na Munich Cyber Security Conference uruchomienie federacyjnej sieci lokalnych węzłów GPU w Unii Europejskiej, traktującej AI jak energię elektryczną – metrowaną, regulowaną i hostowaną lokalnie. Pierwszy węzeł działa od 22 stycznia 2026 r. w centrum danych Telecentras w Wilnie, a w planach jest szybka ekspansja do Łotwy, Estonii, Finlandii, Niemiec i Włoch. Lokalni operatorzy, tacy jak telekomy i centra danych, mają prowadzić węzły, ustalać ceny i zatrudniać lokalne zespoły przy zachowaniu zgodności z AI Act. Równocześnie amerykańska spółka Temporal Technologies pozyskała 300 mln USD w rundzie Series D[29], przy wycenie 5 mld USD, z udziałem funduszy Andreessen Horowitz, Lightspeed, Sapphire, Sequoia, Index Ventures, Tiger Global i funduszu GIC. Temporal oferuje chmurową platformę Temporal Cloud jako „warstwę egzekucji” dla agentów AI, zapewniając zarządzanie stanem, powtarzanie zadań i obsługę błędów w długotrwałych workflowach, z której korzystają już m.in. OpenAI, Replit, Lovable, ADP, Abridge, The Washington Post i Block.

Silny sygnał płynący z rynku to także inwestycje w tzw. world models. Amerykański startup World Labs, współtworzony przez Fei‑Fei Li, pozyskał ok. 1 mld USD od inwestorów[30] takich jak AMD, Nvidia, Autodesk, Emerson Collective, Fidelity i Sea na rozwój modeli generujących realistyczne trójwymiarowe światy do zastosowań w robotyce, symulacjach i nauce. Z kolei platforma agent AI obsługuje już ok. 33% zgłoszeń do działu obsługi klienta[33] w USA i Kanadzie, zarówno w kanale głosowym, jak i tekstowym. Celem spółki jest osiągnięcie poziomu 30% wszystkich zgłoszeń globalnie w ciągu roku oraz pełne objęcie wszystkich języków używanych przez ludzkich konsultantów, przy jednoczesnym zwiększeniu wykorzystania narzędzi AI przez 80% inżynierów, z planem dojścia do 100%.

Konsekwencje dla firm w Polsce

doprecyzowują priorytety wdrażania AI Act na rok 2026[35] , a kancelarie Simmons & Simmons, Gunder oraz firmy doradcze takie jak One. Trust przedstawiają listy zadań dla przedsiębiorstw. AI Act obowiązuje od 1 sierpnia 2024 r.[38] , zakazy systemów o „niedopuszczalnym ryzyku” weszły w życie 2 lutego 2025 r., a zaczną być egzekwowane od sierpnia 2026 r. , przy maksymalnych karach sięgających 7% globalnego obrotu za najpoważniejsze naruszenia. W tym samym czasie pojawiają się realne incydenty związane z agentami: luka w workflow „Claude Issue Triage” w narzędziu developerskim Cline umożliwiła między 21 grudnia 2025 r. a 9 lutego 2026 r. atak typu prompt injection, który instalował na maszynach użytkowników złośliwego agenta Open. Claw[39]. Według badacza bezpieczeństwa Adnana Khana atak polegał na ukrywaniu złośliwych instrukcji w repozytoriach lub API[41], które Cline przekazywał do modelu Anthropic Claude, a ten wykonywał je jako komendy systemowe.

te równoległe trendy oznaczają jednoczesne otwieranie się nowych możliwości i wzrost wymagań[112]. spadają koszty i rośnie moc modeli – szczególnie chińskich frontierów oraz otwartego GLM‑5 czy trybu Gemini 3 Deep Think – co umożliwia pilotaże agentów w obszarach takich jak contact center, programowanie, back‑office czy badania i rozwój. Z drugiej strony rośnie znaczenie dojrzałej infrastruktury: lokalnego hostingu w ramach projektów takich jak EU AI Grid, zewnętrznych warstw niezawodności w stylu Temporal oraz twardych praktyk bezpieczeństwa, w tym ochrony przed prompt injection i zarządzania cyklem życia modeli. W praktyce firmy w Polsce, które chcą zbudować przewagę w latach 2026–2027, muszą równolegle wybierać modele w oparciu o własne benchmarki domenowe, rozdzielać warstwę modelu od warstwy wykonawczej agentów, projektować zgodność z AI Act i traktować bezpieczeństwo agentów na równi z klasycznym bezpieczeństwem aplikacji.


Powiązane wpisy:

Udostępnij: