Ostatnie siedem dni na globalnym rynku sztucznej inteligencji pokazało, jak szybko przyspiesza wyścig modeli, jak bardzo rośnie skala zagrożeń bezpieczeństwa i jak gwałtownie kapitał oraz wielkie koncerny przestawiają się na nową gospodarkę algorytmów. W centrum wydarzeń znalazł się debiut GPT-5.2 od OpenAI, premiera Gemini 3 Flash od Google, rekordowy raport o atakach na agentów AI oraz spektakularna inwestycja Disneya w OpenAI[16] połączona z licencją na wykorzystanie kultowych postaci w modelu wideo Sora.

Równolegle do wyścigu technologicznego zacieśniają się strategiczne sojusze: Accenture buduje największe korporacyjne partnerstwo wokół agentów AI, OpenAI przejmuje polski startup Neptune.ai, a otwartoźródłowe modele z Chin i USA podważają dotychczasowy porządek technologiczny. Z drugiej strony ustawodawcy w Europie i w Stanach Zjednoczonych przyjmują odmienne strategie regulacyjne, co bezpośrednio wpłynie na koszty i kierunki rozwoju rozwiązań AI, także w Polsce.
W tle tych spektakularnych ruchów narasta fala finansowania – szacowana już na ponad 210 miliardów dolarów[31] w tym roku – oraz coraz wyraźniejsze sygnały możliwej bańki spekulacyjnej. Inwestorzy podnoszą wyceny mimo słabnącej koniunktury w innych sektorach, licząc na to, że sztuczna inteligencja stanie się narzędziem obniżania kosztów i napędzania produktywności w warunkach globalnej niepewności gospodarczej.
Premiera GPT-5.2 stała się najmocniejszym sygnałem nowej fazy rywalizacji między OpenAI a Google. OpenAI uruchomił model 11 grudnia, po kilku tygodniach wewnętrznego „kodu czerwonego” ogłoszonego po listopadowym debiucie Gemini 3. Taka narracja z wnętrza firmy pokazuje, że wyścig modeli wszedł w fazę permanentnej mobilizacji – każde duże wydanie jednego gracza natychmiast wywołuje kontrreakcję drugiego.
Nowy model GPT-5.2 według wewnętrznych testów generuje 38% mniej halucynacji[1] niż GPT-5.1, a w benchmarku Tau2 osiąga niezawodność obsługi narzędzi na poziomie 98,7%. W testach długiego kontekstu (do 256 tysięcy tokenów) zbliża się do pełnej poprawności, co oznacza, że system potrafi przetwarzać bardzo rozbudowane dokumenty techniczne, kontrakty lub złożoną korespondencję projektową bez utraty wątku. OpenAI agresywnie gra też ceną: wprowadza cache tokenów, który obniża koszt ponownego użycia tych samych fragmentów promptu nawet o 90%, co uderza bezpośrednio w marże konkurentów.
Standardowe stawki dla GPT-5.2 wynoszą 1,75 dolara za milion tokenów wejściowych i jest adresowana do klientów wymagających najwyższej stabilności. Pod spodem stoi infrastruktura Microsoft Azure oraz najnowsze układy GPU NVIDII: H100, H200 oraz platforma GB200-NVL72. To właśnie od skali i kosztu tej infrastruktury zależy, jak długo OpenAI utrzyma przewagę cenowo-jakościową.
Konsekwencje dla rynku są oczywiste: skrócenie cyklu wydań z miesięcy do tygodni, silniejsza presja na obniżki cen oraz rozwarstwienie oferty na modele „thinking” – wolniejsze, ale dokładniejsze – i szybkie wersje typu instant. Dla użytkowników biznesowych w Polsce oznacza to konieczność świadomego wyboru między ceną a jakością rozumowania, a dla Microsoftu – ryzyko, że każde opóźnienie lub porażka technologiczna OpenAI może zagrozić miliardowym inwestycjom w infrastrukturę chmurową.
Na reakcję Google nie trzeba było długo czekać. 17 grudnia firma uruchomiła Gemini 3 Flash Preview[4], nową wersję modelu stworzoną do zadań, w których liczy się przede wszystkim szybkość i koszt. To pierwszy dzień publicznej premiery wariantu flash z rodziny Gemini 3, projektowanego jako bezpośredni konkurent dla szybkich modeli OpenAI i innych dostawców.
Gemini 3 Flash, według zapowiedzi Google, oferuje „wydajność klasy frontier za ułamek kosztu”[5], a więc możliwości zbliżone do najpotężniejszych modeli przy niższym zużyciu zasobów. Model rozwija możliwości multimodalne – lepiej radzi sobie z obrazami, relacjami przestrzennymi i analizą materiałów wizualnych – a także wprowadza funkcje określane jako „vibe coding”, czyli generowanie interfejsów aplikacji z możliwością wyboru formatu wyjścia bezpośrednio przez model.
Równolegle Google rozwija linię Gemini 3 Deep Think, dostępną od 4 grudnia dla abonentów najwyższego poziomu usługi AI Ultra. Ten wariant skupia się na iteracyjnym rozumowaniu i dłuższych łańcuchach wnioskowania, co ma konkurować z podejściem „thinking” w modelach OpenAI. Oba modele – Flash i Deep Think – tworzą razem zestaw narzędzi, który ma pokryć większość scenariuszy korporacyjnych, od prostych chatbotów po złożone systemy analityczne.
Rezultatem jest dalsza fragmentacja rynku na trzy główne kategorie[7]: najpotężniejsze modele frontier (GPT-5.2, Gemini 3 Pro i ich następcy), szybkie i tańsze warianty (Gemini Flash, GPT mini, modele Haiku) oraz lekkie modele optymalizowane pod niskie koszty eksploatacji. Dla mniejszych firm oznacza to realną możliwość uniezależnienia się od jednej platformy – mogą dobrać model pod konkretny przypadek użycia, nie wiążąc się na stałe z jednym dostawcą.
Multimodalność – jeszcze niedawno traktowana jako atrakcyjny dodatek – staje się standardem. W benchmarku MMMU, który mierzy zdolność modeli do odpowiadania na złożone pytania z wielu dziedzin na podstawie tekstu i obrazu, najlepsze systemy, takie jak Claude czy GPT-4o, nadal nie dorównują w pełni ekspertom z poszczególnych dziedzin, choć osiągają wyniki na poziomie około 77%, gdy eksperci ludzie otrzymują między 76 a 88%. To jasno pokazuje, że AI wciąż bardziej uzupełnia kompetencje człowieka niż całkowicie go zastępuje.
Poza rywalizacją gigantów rośnie znaczenie modeli otwartoźródłowych, zwłaszcza tych rozwijanych poza Stanami Zjednoczonymi i Unią Europejską. Chińska firma Deep. Seek z modelem Deep. Seek-R1 stała się symbolem tej zmiany. Model, którego pierwszą wersję udostępniono pod koniec stycznia 2025 roku, a kolejne iteracje – w tym R1 V3.1 – dopracowywano przez cały rok, pokazuje, że najwyższy poziom wydajności można osiągnąć także poza Doliną Krzemową.
Deep. Seek-R1 wykorzystuje architekturę ekspertową z mieszaniem ekspertów (Mixture of Experts), w której łączna liczba parametrów sięga setek miliardów, a w danym momencie aktywne pozostają mniejsze podzbiory (m.in. 37 miliardów parametrów). Model trenuje się głównie metodami uczenia przez wzmacnianie bez klasycznego etapu wstępnego dopasowania nadzorowanego. Dzięki temu zbliża się wydajnością w zadaniach wymagających rozumowania do zamkniętych modeli klasy OpenAI o1.
Cena tego podejścia to wyższe zużycie tokenów – w początkowych wersjach nawet pięć do piętnastu razy większe niż u konkurentów – jednak zespół Deep. Seek sukcesywnie udostępnia zdystylowane warianty o wielkościach od 1,5 do 70 miliardów parametrów. Te mniejsze modele zmniejszają koszt obliczeń i pozwalają na wdrażanie rozwiązań na słabszej infrastrukturze, w tym na serwerach firm średniej wielkości poza głównymi centrami chmurowymi.
Największe kontrowersje budzi poziom bezpieczeństwa Deep. Seek-R1. Testy wykazały, że około 12% odpowiedzi może zawierać treści niebezpieczne, podczas gdy w jednym z najnowszych lżejszych modeli OpenAI – o3-mini – odsetek ten wynosi około 1,2%. Otwarty charakter modelu powoduje, że trudno jest wymusić poprawki czy wprowadzić mechanizmy zgodności z regulacjami. Z punktu widzenia firm i regulatorów pojawia się nowe pytanie: jak egzekwować wymagania compliance wobec modelu, którego wagi można pobrać z internetu, ale nie ma jednego, nadrzędnego wydawcy?
Konsekwencje wykraczają poza technologię. Otwarte wagi w modelach Deep. Seek czy Qwen3 z Chin oraz Olmo czy Gemma z USA i Europy wywierają presję na komercyjnych dostawców, zmuszając ich do obniżek cen oraz podnoszenia jakości. Azja, a zwłaszcza Chiny i Indie, wzmacniają swoją pozycję w globalnym układzie sił. Dla europejskich i polskich firm oznacza to szerszy wybór, ale też większą niepewność co do trwałości ekosystemów i bezpieczeństwa rozwiązań, które nie są objęte spójną kontrolą jednego dostawcy.
Równolegle z wyścigiem modeli ujawnia się nowa, bardzo konkretna linia frontu: bezpieczeństwo agentów AI. Najnowszy globalny benchmark red-teamingowy, w którym zebrano 1,8 miliona prób ataków na agentów[13], pokazuje skalę problemu. W ponad 60 tysiącach przypadków ataki prompt injection doprowadziły do udanych naruszeń polityk bezpieczeństwa, a niemal wszystkie testowane systemy dało się złamać w ciągu od kilku do kilkudziesięciu zapytań.
W ramach testu sprawdzono 22 różne modele w 44 scenariuszach – od prostych poleceń modyfikacji danych po złożone łańcuchy zadań, w których agent miał dostęp do narzędzi zewnętrznych, takich jak systemy CRM, bazy danych czy interfejsy API. Okazało się, że nie istnieje prosta zależność między rozmiarem modelu a jego odpornością. W niektórych przypadkach większe, bardziej zaawansowane modele dawały się oszukać łatwiej niż ich lżejsze odpowiedniki, co obala wygodny mit, że większy model automatycznie oznacza większe bezpieczeństwo.
Kontekst ten potwierdza raport firmy Akto poświęcony bezpieczeństwu agentów w środowiskach korporacyjnych, opublikowany 14 grudnia. Z badania wynika, że 69% firm już uruchomiło lub pilotażuje agentów AI w swoich procesach – od obsługi klienta po wsparcie działów finansowych i HR. Jednocześnie tylko 21% organizacji dysponuje pełnym spisem używanych agentów, a aż 79% nie ma przejrzystości co do ich uprawnień w systemach wewnętrznych. Około 80% firm nie posiada formalnej polityki zarządzania agentami AI ani procedur ich audytu.
Zagrożenie polega na tym, że ryzyko przestaje dotyczyć wyłącznie tego, co model mówi, a zaczyna dotyczyć tego, co agent robi. Agent, który potrafi modyfikować wpisy w bazie danych, wysyłać e-maile, inicjować przelewy, tworzyć bilety w systemie helpdesk czy modyfikować ustawienia w infrastrukturze chmurowej, staje się nowym wektorem ataku. Jedno udane wstrzyknięcie złośliwego polecenia może uruchomić kaskadę działań, trudnych do odtworzenia i prześledzenia bez dokładnego monitoringu.
Rosnąca liczba incydentów i wyników testów prowadzi do wniosku, że agenci AI wymagają izolacji i sandbox’ów, w których każde działanie jest ściśle ograniczone i rejestrowane. Dla firm w Polsce oznacza to konieczność budowy nowych kompetencji – od inżynierów bezpieczeństwa wyspecjalizowanych w ochronie promptów po zespoły odpowiedzialne za stały nadzór nad zachowaniem agentów. Monitoring w czasie rzeczywistym, logowanie wszystkich interakcji, testy penetracyjne z wykorzystaniem prompt injection oraz audyty uprawnień stają się niezbędnym elementem ładu korporacyjnego.
Prompt injection – jeszcze niedawno traktowany przez część branży jako ciekawostka akademicka – dziś jest najczęściej wykorzystywaną podatnością we współczesnych systemach AI. Atak polega na tym, że napastnik wstrzykuje do wejścia modelu polecenia, które próbują nadpisać lub obejść ukryte instrukcje systemowe. W środowisku agentów, którzy mogą wykonywać działania w zewnętrznych systemach, skuteczność takich ataków rośnie drastycznie.
Analiza 1,8 miliona prób ataków wykazała, że przy odpowiednio zaprojektowanych łańcuchach zadań wskaźnik sukcesu prompt injection może sięgać od 91 do 96%. Co więcej, architektury szczególnie podatne na wywoływanie funkcji – takie jak function calling – wykazują wyższy odsetek udanych ataków niż rozwiązania oparte na bardziej ograniczonych protokołach wymiany danych. Model Context Protocol, szeroko promowany jako sposób na bezpieczne łączenie modeli z zewnętrznymi narzędziami, również wymaga niezależnego audytu i twardych testów bezpieczeństwa.
Badacze z MIT, Stanfordu, Google Research i Microsoftu rozwijają nowe metody obrony. Obok klasycznych filtrów wejścia i wyjścia oraz list blokujących pojawiają się bardziej zaawansowane techniki, jak Attention Tracker – narzędzie śledzące, na które fragmenty promptu model poświęca najwięcej uwagi, bez konieczności kosztownej dodatkowej inferencji. W praktyce ma to pomóc wykrywać próby przemycania złośliwych instrukcji w niepozornych fragmentach tekstu.
W perspektywie kilku lat można się spodziewać, że bezpieczeństwo promptów stanie się osobną specjalizacją w zespołach cyberbezpieczeństwa. Firmy będą tworzyć wewnętrzne procedury testów injection przed wdrożeniem każdego nowego agenta, a wyniki takich testów mogą stać się obowiązkowym elementem dokumentacji compliance – na równi z klasycznymi testami penetracyjnymi sieci i aplikacji webowych.
Najgłośniejszym partnerstwem tygodnia okazała się współpraca między Walt Disney Company a OpenAI. W ramach umowy Disney zainwestuje w OpenAI około 1 miliarda dolarów w formie udziałów, a równocześnie udzieli licencji na wykorzystanie ponad 200 kultowych postaci w modelu generowania wideo Sora. Wśród nich znajdą się m.in. Mickey Mouse, bohaterowie Frozen, postacie z uniwersum Star Wars, w tym Yoda i szturmowcy, a także bohaterowie serii Avengers.
Jednym z elementów umowy jest także wdrożenie ChatGPT Enterprise dla pracowników Disneya, co ma przyspieszyć wewnętrzne procesy i produkcję treści. Jednocześnie strony wprowadziły twarde ograniczenia: modele nie mogą generować portretów ani głosów konkretnych aktorów, a system ma blokować treści uznawane za nieodpowiednie w połączeniu z rozpoznawalnymi bohaterami. Dla części środowiska kreatywnego to jednak za mało. Animatorzy, tacy jak John Attanasio, przestrzegają przed powstaniem „bezkosztowego łańcucha produkcji”, w którym studio zyskuje ogromną ilość materiału wideo z minimalnym udziałem profesjonalnych twórców.
Dla konkurencji oznacza to presję, by zawierać podobne porozumienia z dostawcami modeli generatywnych. Inne studia filmowe oraz platformy takie jak You. Tube czy Tik. Tok będą prawdopodobnie szukać sposobów na połączenie modeli AI z własnymi uniwersami i społecznościami. Sora z produktu w fazie beta przechodzi w fazę komercyjną, a użytkownicy przyzwyczajają się do tego, że dostęp do wysokiej jakości generowania wideo jest elementem codziennej oferty platform streamingowych.
Na poziomie korporacyjnym jednym z najważniejszych wydarzeń jest strategiczne porozumienie między Accenture a OpenAI. Firma konsultingowa zatrudniająca kilkaset tysięcy pracowników staje się głównym partnerem OpenAI w segmencie enterprise i buduje na tej bazie nową ofertę transformacji biznesowej opartej na agentach AI. Umowę ogłoszono na początku grudnia, a jej kluczowym elementem jest wdrożenie ChatGPT Enterprise dla dziesiątek tysięcy pracowników Accenture na całym świecie.
Accenture uzyska dostęp do Agent. Kit – frameworka OpenAI pozwalającego tworzyć i zarządzać własnymi agentami, zintegrowanymi z systemami klientów. Nowy program Flagship AI client ma pomóc firmom automatyzować procesy finansowe, kadrowe, logistyczne i obsługę klienta, a równocześnie przygotować ich zespoły do pracy w środowisku, w którym agenci AI przejmują część zadań operacyjnych. Accenture zapowiada masową rozbudowę oferty szkoleń i certyfikacji OpenAI dla swoich konsultantów.
Rynek finansowy szybko zareagował na te zapowiedzi – notowania Accenture w handlu przedsesyjnym wzrosły o kilkadziesiąt procent. Dla polskich integratorów i firm usługowych to wyraźny sygnał: globalni gracze przekształcają się w kanał dystrybucji dla technologii frontier AI, podobnie jak wcześniej w przypadku chmury obliczeniowej. Oznacza to zarówno szansę na budowę niszowych kompetencji i lokalnych partnerstw, jak i ryzyko utraty talentów na rzecz międzynarodowych koncernów, które oferują globalne projekty i certyfikacje.
Model Accenture opiera się na założeniu, że firmy będą musiały przemodelować strukturę zatrudnienia. Sama prezes Julie Sweet przyznała, że część osób będzie odchodzić, podczas gdy inni przejdą intensywny proces reskillingu, aby sprostać nowym wymaganiom. W praktyce oznacza to, że rośnie popyt na specjalistów potrafiących łączyć kompetencje biznesowe z umiejętnością projektowania i nadzorowania agentów AI oraz integracji ich z istniejącą infrastrukturą IT.
Kolejnym sygnałem zmian w globalnym ekosystemie jest przejęcie przez OpenAI polskiego startupu Neptune.ai. Firma wywodzi się z warszawskiej spółki Deepsense i od 2018 roku specjalizuje się w narzędziach ML-Ops do monitorowania i zarządzania treningiem modeli uczenia maszynowego. Wśród jej klientów znajdowały się m.in. Samsung, Roche i HP, a łączne finansowanie przekroczyło 18 milionów dolarów.
W ramach umowy ogłoszonej na początku grudnia wartość transakcji szacuje się na mniej niż 400 milionów dolarów w akcjach, choć szczegóły nie zostały ujawnione. Wiadomo natomiast, że narzędzia Neptune były już wykorzystywane wewnętrznie przez OpenAI do monitorowania treningu największych modeli. Przejęcie ma na celu pełną integrację rozwiązań Neptune z infrastrukturą treningową OpenAI, co pozwoli spółce jeszcze ściślej kontrolować cały łańcuch tworzenia i doskonalenia modeli – od danych wejściowych po monitorowanie metryk bezpieczeństwa i jakości.
Dla polskiej sceny technologicznej to ważny przykład udanego wyjścia z inwestycji w segmencie deeptech. Neptune pokazuje, że również w Polsce można zbudować produkt infrastrukturalny na światowym poziomie, który staje się kluczowy dla jednego z największych graczy w branży. Jednocześnie jest to kolejny sygnał, że zamknięte, wysokospecjalistyczne narzędzia ML-Ops coraz częściej kończą w rękach gigantów technologicznych, co utrudnia mniejszym firmom dostęp do rozwiązań klasy enterprise.
Na tle tych wydarzeń kształtuje się nowy krajobraz regulacyjny. Unia Europejska finalizuje wdrażanie rozporządzenia AI Act, które wprowadza hierarchię ryzyka dla systemów AI oraz surowe kary finansowe – do 35 milionów euro lub 7% globalnego obrotu, w zależności od tego, która kwota jest wyższa. Pierwsze przepisy zakazujące wybranych praktyk, jak systemy oceny społecznej obywateli, zaczną obowiązywać w lutym 2025 roku. Zasady dotyczące ogólnych systemów AI (GPAI) wejdą w życie pół roku później, a pełne stosowanie przepisów przewidziano na 2 sierpnia 2026 roku.
W tym samym czasie w Stanach Zjednoczonych przyjęto rozporządzenie prezydenckie, które centralizuje regulację AI na poziomie federalnym i ogranicza możliwość wprowadzania odrębnych przepisów przez poszczególne stany, takie jak Kalifornia czy Kolorado. Departament Sprawiedliwości ma pozywać władze stanowe za próby samodzielnego regulowania sztucznej inteligencji. Oznacza to, że wiele amerykańskich startupów AI będzie działać w środowisku znacznie mniej obciążonym kosztami zgodności niż ich europejscy konkurenci.
Dla europejskiego ekosystemu to poważne wyzwanie. Z jednej strony AI Act ma zwiększyć zaufanie społeczne do systemów AI i zapobiec najbardziej ryzykownym zastosowaniom. Z drugiej – istnieje ryzyko, że zbyt restrykcyjne i kosztowne wymogi skłonią część innowacyjnych firm do przenoszenia badań i rozwoju poza Europę lub opóźniania wprowadzania nowych produktów na rynek unijny. Dla Polski, która chce budować własny ekosystem startupów AI, oznacza to konieczność szukania równowagi między wymaganiami bezpieczeństwa a konkurencyjnością regulacyjną.
Na poziomie finansowym rok 2025 kończy się imponującą falą inwestycji w spółki AI. Do listopada skumulowana wartość finansowania przekroczyła 210 miliardów dolarów, co jest wynikiem wyraźnie wyższym niż w większości innych sektorów technologicznych. W grudniu na rynek trafiły kolejne duże rundy: PolyAI pozyskało 86 milionów dolarów w rundzie seed na neuromorficzny hardware, a Gradium 70 milionów dolarów na rozwiązania głosowe.
Jednocześnie rosną wyceny największych graczy. OpenAI jest wyceniane na około 500 miliardów dolarów, startup xAI – na około 200 miliardów, a Anthropic – na ponad 30 miliardów. Wiele młodszych spółek otrzymuje setki milionów dolarów finansowania przy ograniczonych przychodach i niejasnych modelach biznesowych. Przykładem jest FieldAI, pracujące nad humanoidalnymi robotami, które zebrało ponad 400 milionów dolarów, zanim zaprezentowało stabilny komercyjny produkt.
Analitycy coraz częściej używają pojęcia bańki inwestycyjnej. Jeśli do 2027 roku sztuczna inteligencja nie przyniesie wymiernych zwrotów z inwestycji w skali gospodarki – zarówno w formie oszczędności kosztowych, jak i nowych przychodów – część spółek może stanąć przed koniecznością obniżenia wycen w kolejnych rundach lub przy przejęciach. To z kolei może wywołać falę konsolidacji, w której najwięksi gracze wykupią najbardziej obiecujące, ale niedofinansowane aktywa wczesnego etapu.
Dla Europy, w tym Polski, jest to zarówno zagrożenie, jak i szansa. Lokalny rynek venture capital rzadko jest w stanie konkurować z amerykańskimi czy azjatyckimi funduszami pod względem skali. Jednak przykłady takie jak Neptune.ai pokazują, że polskie spółki deeptech mogą liczyć na udane wyjścia poprzez przejęcia przez globalnych liderów. Kluczowe będzie budowanie firm na warstwie infrastrukturalnej – narzędziach, które są niezbędne niezależnie od tego, który model czy dostawca dominuje na rynku.
Poza głównym nurtem wydarzeń pojawiło się kilka słabszych, ale istotnych sygnałów, które mogą mieć długofalowe znaczenie. HSBC i francuski startup Mistral ogłosiły wieloletnie partnerstwo, w ramach którego modele Mistrala będą działać w środowisku self-hosted banku. To potwierdza trend „prywatnej chmury” i preferencji dla europejskich dostawców w sektorach objętych szczególnymi wymogami regulacyjnymi.
Thomson Reuters wraz z Imperial College powołały pięcioletnie laboratorium badań nad zaawansowaną AI, skupione na bezpieczeństwie, niezawodności i wpływie społecznym. Allen Institute for AI rozwija linię otwartoźródłowych modeli Olmo 3, oferując pełną przejrzystość checkpointów i danych treningowych, co ma stać się przeciwwagą dla otwartych modeli Deep. Seek. Google Deep. Mind uruchomił linię Gemma 3, obejmującą modele od 4 do 27 miliardów parametrów, dystrybuowanych m.in. przez Hugging Face i konkurujących wydajnością z zamkniętymi modelami klasy Claude 3.7 Sonnet.
NVIDIA przedstawiła model Alpamayo-R1, łączący przetwarzanie obrazu, języka i działania na potrzeby autonomicznych pojazdów, udostępniając go społeczności w formule open source. Byte. Dance zaczęło umieszczać własnego asystenta głosowego Doubao na telefonach ZTE, co wzmacnia trend mobilnego, głosowego dostępu do AI w Azji. Jednocześnie raport Pindrop Security wskazuje na gwałtowny wzrost liczby ataków deepfake – z jednego ataku miesięcznie na klienta w 2023 roku do średnio siedmiu dziennie w 2025 roku. W jednym z głośnych przypadków pracownik w Hongkongu został zmanipulowany deepfake’owym rozmówcą do przelania 25 milionów dolarów.
Anthropic utrzymuje pozycję trzeciej siły na rynku wraz z serią modeli Claude 4.5, udostępnioną m.in. przez platformę Amazon Bedrock. Alibaba rozwija linię Qwen3, która w wielu benchmarkach osiąga wyniki zbliżone do GPT-4o i Deep. Seek, wykorzystując architekturę ekspertową. To wszystko składa się na obraz coraz bardziej wielobiegunowego świata AI, w którym dominacja jednego czy dwóch dostawców staje się coraz mniej prawdopodobna.
Co oznacza ten dynamiczny obraz dla polskiego czytelnika – menedżera, informatyka, regulatora, inwestora czy nauczyciela? Po pierwsze, dla firm IT i sektora usług rośnie nowy rynek: bezpieczeństwo agentów AI. Skala luki – 79% organizacji nie ma pełnego wglądu w uprawnienia agentów – tworzy ogromne zapotrzebowanie na usługi audytu, testów red-teamingowych, budowy sandbox’ów oraz stałego monitoringu zachowań systemów. Polskie integratory mogą wzorować się na modelu Accenture, budując własne praktyki certyfikacji i kompetencji wokół konkretnych platform, takich jak OpenAI czy Google.
Po drugie, regulatorzy i instytucje odpowiedzialne za ochronę danych, w tym Urząd Ochrony Danych Osobowych, będą musiały poszerzyć obszar zainteresowania z klasycznego cyberbezpieczeństwa na monitorowanie logów LLM i zachowania agentów. Benchmarki red-teamingowe jednoznacznie pokazują, że wielkość modelu nie jest dobrą miarą bezpieczeństwa, a ocena ryzyka wymaga wglądu w architekturę systemu, uprawnienia oraz procedury nadzoru.
Wraz z wejściem w życie pełnego reżimu AI Act od sierpnia 2026 roku europejskie organy nadzorcze będą potrzebować nie tylko prawników, ale też inżynierów i analityków danych, zdolnych do interpretacji wyników testów bezpieczeństwa, raportów biasu czy audytów algorytmicznych. To wymusza inwestycje w kadry już dziś – zarówno w sektorze publicznym, jak i prywatnym.
Inwestorzy i startupy powinny z kolei traktować przypadek Neptune.ai jako dowód, że polski deeptech ma realną szansę na globalne wyjścia poprzez przejęcia. Jednocześnie fala finansowania na poziomie ponad 200 miliardów dolarów rocznie może oznaczać powstanie bańki, zwłaszcza jeśli część spółek nie pokaże wiarygodnych ścieżek do rentowności. Kluczowe będzie staranne wybieranie segmentów – warstwa infrastrukturalna, open source, narzędzia bezpieczeństwa i compliance oferują bardziej trwałą wartość niż kolejny ogólny chatbot.
System edukacji i działy HR muszą się przygotować na masową transformację umiejętności. Przykład Accenture, które równocześnie inwestuje w certyfikacje OpenAI i zapowiada reorganizację zatrudnienia, sygnalizuje, że reskilling stanie się obowiązkowy, a nie fakultatywny. Globalne programy szkoleniowe dostawców modeli, od kursów OpenAI po certyfikacje chmurowe, prawdopodobnie szybko staną się nieformalnym standardem kwalifikacji także na polskim rynku pracy.
Na koniec warto zwrócić uwagę na globalne zagrożenia o lokalnych konsekwencjach. Gwałtowny wzrost liczby ataków deepfake, sięgający kilkuset procent rok do roku, uderza bezpośrednio w procesy weryfikacji tożsamości klientów i partnerów – zarówno w bankowości, jak i w administracji publicznej. Wyścig technologiczny między Stanami Zjednoczonymi a Chinami, przy bardziej defensywnej pozycji Europy, będzie wpływać na dostępność i koszt kluczowych komponentów, od układów GPU po zaawansowane modele. Z kolei rosnąca konkurencja cenowa na poziomie tokenów i kosztów inferencji zmusi polskie firmy do bardzo dokładnego liczenia całkowitego kosztu posiadania rozwiązań AI – od wyboru między modelem otwartym a zamkniętym, przez optymalizację promptów i cache’owanie, po lokalizację infrastruktury.
Z perspektywy organizacji w Polsce przydatne staje się proste, ale konkretne pytanie kontrolne: czy wiemy, ile agentów AI działa już w naszej firmie i jakie mają uprawnienia? Czy przeszły jakiekolwiek testy red-teamingowe lub próby penetracji? Czy porównaliśmy na realnych przypadkach biznesowych możliwości Gemini 3 Flash i GPT-5.2, zamiast mechanicznie wybierać jedną platformę? Czy nasz dział compliance zna dokładne daty wejścia w życie poszczególnych przepisów AI Act i przygotował plan wdrożenia? Czy potrafimy policzyć, ile naprawdę kosztuje nas korzystanie z modeli zamkniętych w porównaniu z otwartymi rozwiązaniami, takimi jak Deep. Seek? I wreszcie – czy nasze procedury KYC i weryfikacji głosowej są odporne na coraz bardziej przekonujące deepfake’i?
Odpowiedzi na te pytania w najbliższych miesiącach zadecydują o tym, czy polskie firmy wykorzystają tempo globalnej rewolucji AI jako szansę na awans w łańcuchu wartości, czy raczej znajdą się po stronie tych, którzy próbują gasić pożary wywołane przez technologie wdrażane bez refleksji nad bezpieczeństwem, kosztami i odpowiedzialnością.
