W okresie 19–26 grudnia 2025 branża AI nabrała konkretnego kształtu: OpenAI wydał 11 grudnia GPT-5.2[44], Anthropic wprowadził Claude Opus 4.5 (23–24 listopada), a Google pozostaje pod presją po premierze Gemini 3 z 18 listopada. Równocześnie Linux Foundation ogłosiła powstanie Agentic AI Foundation (9 grudnia), a OWASP opublikował „OWASP Top 10 for Agentic Applications” (9 grudnia), co przesunęło dyskusję z porównywania wyników benchmarków na temat wdrażania guardrails i zgodności. W efekcie rynek łączy technologiczną rywalizację z nagłą potrzebą standardów bezpieczeństwa.

Główne wydania modeli
OpenAI wypuścił GPT-5.2 w trzech wariantach: GPT-5.2 Thinking (głębokie rozumowanie), GPT-5.2 Instant (szybki) i GPT-5.2-Codex (optymalizacja kodowania). Model osiągnął 70,9% na benchmarku GDPval i 55,6% na SWE-Bench Pro, potrafi operować na kontekście do 400K tokenów. Cena wynosi $1,75 na milion tokenów wejścia i $14 wyjścia; jednoczesna integracja z Microsoft 365 Copilot** potwierdzona 11 grudnia intensyfikuje presję konkurencyjną i ryzyka kosztowe dla klientów wrażliwych na ceny.
Bezpieczeństwo i regulacje
Anthropic skoncentrował się na kodowaniu i agentach: Claude Opus 4.5 osiągnął 77,2% na SWE-Bench Verified[48] i deklaruje efektywność tokenów na poziomie 48–76% mniejszego zużycia wyjściowych tokenów przy równych wynikach. Cena nowego wariantu to $5/$25 na milion tokenów, co w połączeniu z token efficiency może przyciągać duże przedsiębiorstwa. Google testuje z kolei nowe środowisko programistyczne Google Antigravity[76], w którym agenci autonomicznie planują, kodują i walidują aplikacje; projekt rozwijają Demis Hassabis i Koray Kavukcuoglu, a narzędzie integruje Gemini 3 Pro i Vertex AI, co tworzy potencjalny lock-in w ekosystemie Google Cloud.
Bezpieczeństwo agentów awansowało do czołówki ryzyk. OWASP opisał w „OWASP Top 10 for Agentic Applications” główne zagrożenia[74]: przejęcie zachowania agenta (Agent Behavior Hijacking), niewłaściwe użycie narzędzi (Tool Misuse and Exploitation), nadużycia uprawnień (Identity and Privilege Abuse) oraz przejęcie celów (Goal Hijacking). Jednocześnie Linux Foundation sformalizowała współpracę największych graczy w Agentic AI Foundation (9 grudnia). EU AI Act, której faza II zaczęła obowiązywać 2 sierpnia 2025[101] i która w praktyce wymaga dokumentacji technicznej, raportowania incydentów i audytów dla systemów o charakterze systemic.
Rynki i konsekwencje biznesowe
Grudzień 2025 to także fala transakcji: rynek M&A osiągnął wartość około $100 miliardów w tym miesiącu, a raport Bain & Co wskazał[103] przy wzroście do $478 miliardów w Q4. Kluczowe transakcje obejmowały połączenia i inwestycje z udziałem Palo Alto Networks[100], Cyber. Ark (ok. $25 miliardów), AMD, Lenovo, a partnerstwa infrastrukturalne jak Core. Weave (wycena $22,4 miliarda) i inwestycja Disney–OpenAI (~$1 miliard) zmieniają dostęp do mocy obliczeniowej. Prognozy Forbes i CB Insights szacują rynek agentic AI na $155 miliardów w 2026 (wzrost 35% r/r), co przesunie rolę pracowników z wykonywania rutynowych zadań na nadzór i audyt agenta.
Implikacje dla polskich firm są bezpośrednie: trzeba natychmiast zmapować używane modele LLM/VLM, przygotować budżety na compliance zgodne z EU AI Act i ocenić, czy aplikacje agentowe mają guardrails zgodne z najlepszymi praktykami OWASP. Brak działania grozi karami i utratą zaufania klientów[102]. Zalecam trzy kroki: (1) sporządzić inwentarz systemów AI i dokumentację ich użycia, (2) wdrożyć sanitizację kontekstu retrieval w aplikacjach RAG, (3) powołać osobę odpowiedzialną za bezpieczeństwo agentów i zgodność — Chief Agent Officer lub podobną rolę.
