5 marca 2026 OpenAI wprowadziło model GPT‑5.4[1], który łączy rozumowanie, kodowanie i natywną obsługę komputera, a więc klikanie myszą, wpisywanie tekstu z klawiatury, wypełnianie formularzy i poruszanie się po aplikacjach. Model osiąga 83,0% w benchmarku GDPval[2] obejmującym 44 zawody opierające się na pracy umysłowej, 75% w teście OSWorld wobec średniej ludzkiej 72,4% oraz 91% w benchmarku dokumentów prawnych. W porównaniu z GPT‑5.2 liczba błędów spadła o 33%[3], a mechanizm „tool search” ogranicza zużycie tokenów o 47%[4] w środowiskach z wieloma narzędziami. Cena API wynosi 2,50 USD za 1 mln tokenów[5] wejściowych i 10 mln tokenów wyjściowych. Równolegle Anthropic udostępniło w ramach pakietów Cowork i Claude Code[6] funkcję computer use, która również pozwala agentowi samodzielnie pracować na komputerze, przy czym firma zastrzega, że rozwiązanie pozostaje na wczesnym etapie i *„ Claude może popełniać błędy[7], a zagrożenia cały czas ewoluują”*. Dla polskich kancelarii prawnych, instytucji finansowych i agencji PR oznacza to konieczność przemyślenia procesów opartych na pracy biurowej i pojawienie się nowych ról typu AI ops zamiast tradycyjnych stanowisk wykonawczych.
Agenci przejmują komputer i biurowe procesy
Wraz z możliwością wykonywania rzeczywistych działań w systemach firmowych gwałtownie rośnie znaczenie bezpieczeństwa[8]. 18 marca 2026 Hacker. One uruchomiło usługę Agentic[9] Prompt Injection Testing – pierwsze komercyjne narzędzie do testowania w warunkach produkcyjnych, czy atak prompt injection na agenta może prowadzić do realnego wycieku danych[10], wykonania kodu lub wysłki e‑maili. Na swojej platformie Hacker. One odnotowało 540% wzrost rok do roku[11] potwierdzonych podatności tego typu, a według audytów Cisco aż 73% produkcyjnych wdrożeń AI zawiera luki[12]. Kolejne 40% organizacji deklaruje, że doświadczyło już ataków omijających zabezpieczenia modeli, a Claw posiada przynajmniej jedną podatność[13]. Nidhi Aggarwal podkreśla, że prompt injection szybko stał się poważnym zagrożeniem[14]. W odpowiedzi OpenAI 10 marca opublikowało przewodnik projektowania agentów[15] odpornych na takie techniki.
Bezpieczeństwo: prompt injection i deepfake
Bombay Stock Exchange (BSE) 8 marca 2026 po raz drugi ostrzegło[16] przed sfabrykowanym nagraniem wideo, w którym deepfake podszywa się pod prezesa Sundararamanę Ramamurthy’ego[17] i promuje fałszywy schemat inwestycyjny. Według bazy AI Incident Database, analizowanej m.in. przez badacza Simona Myliusa z Massachusetts Institute of Technology, oszustwa deepfake działają już na skalę przemysłową[18] – syndykat powiązany z Chinami miał wyłudzić[19] w Indiach co najmniej 400 crore rupii (ok. 48 mln USD), a straty brytyjskich konsumentów sięgnęły 9,4 mld funtów[20] w ciągu dziewięciu miesięcy do listopada 2025 roku. jedna z firm finansowych utraciła 500 tys. USD[21] podczas fałszywej wideokonferencji. Dla polskich działów PR i komunikacji korporacyjnej oznacza to realne ryzyko podrobienia wypowiedzi członków zarządu i konieczność wprowadzenia twardych procedur weryfikacji tożsamości w kanałach cyfrowych.
Regulacje UE i presja inwestycji
Na poziomie regulacyjnym kluczowe znaczenie ma AI Act. Komisja Europejska opublikowała drugi projekt Kodeksu Praktyk[22] w sprawie znakowania i oznaczania treści generowanych przez AI, który ma stać się praktycznym wzorcem wypełniania obowiązków transparentności z artykułu 50 rozporządzenia. Dokument promuje dwuwarstwowe podejście oparte na zabezpieczonych metadanych[23] i znakowaniu wodnym dla treści tekstowych, graficznych, audio i wideo. Finalizację Kodeksu zaplanowano na czerwiec 2026[24], czyli dwa miesiące przed pełnym wejściem w życie AI Act 2 sierpnia 2026. Od tego dnia zastosowanie znajdą przepisy dla systemów wysokiego ryzyka, zasady nadzoru rynku oraz wymogi transparentności, a za naruszenia grożą kary do 35 mln euro lub 7% globalnego obrotu w przypadku zakazanych praktyk i do 15 3% przy innych naruszeniach. Parlament Europejski opublikował 17 marca analizę egzekwowania nowych przepisów[25], a platforma artificialintelligenceact.eu przypomina, że każde państwo członkowskie ma obowiązek uruchomić[26] co najmniej jedną piaskownicę regulacyjną AI do 2 sierpnia 2026 roku. ustawa wdrażająca AI Act nadal pozostaje w toku[27], wraz z planowanym powołaniem Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji** jako organu nadzoru, co utrudnia firmom przygotowanie się do nowych wymogów.
Koncentracja kapitału i skutki dla rynku pracy
trwa bezprecedensowa koncentracja kapitału w rękach kilku globalnych graczy[28]. 27 lutego 2026 OpenAI ogłosiło rundę finansowania o wartości 110 mld USD[29], w której Amazon zainwestował 50 mld USD i rozszerzył umowę z AWS[30] o kolejne 100 mld USD na 8 lat, a NVIDIA i Soft. Bank dołożyły po 30 mld USD. Wycena spółki przed rundą sięgnęła 730 mld USD[31], przy przychodach za 2025 rok na poziomie 13 mld USD i planowanych wydatkach 115 mld USD w ciągu czterech lat. Jednocześnie ChatGPT ma już 900 mln użytkowników tygodniowo[32], 50 mln subskrybentów i 9 mln klientów biznesowych, a spółka pozostaje nierentowna i przygotowuje się do wejścia na giełdę. W tym samym kwartale Anthropic zamknęło rundę Series G o wartości 30 mld USD[33], co łącznie daje 140 mld USD świeżego kapitału dla dwóch wiodących firm modeli frontierowych i znacząco podnosi barierę wejścia dla nowych podmiotów.
Konsekwencje tej dynamiki coraz wyraźniej widać na rynku pracy[34]. Według analiz Goldman Sachs sztuczna inteligencja przyczyniła się w USA w 2025 roku[35] do netto 5–10 tys. utraconych miejsc pracy miesięcznie, a trend przyspiesza w 2026. Firma Block ogłosiła redukcję 4000 etatów[36] z 10 tys., powołując się bezpośrednio na rosnące możliwości AI, a Amazon zlikwidował 16 tys. stanowisk korporacyjnych[37]. Dane zebrane m.in. przez Digital Journal, Reuters i CNBC wskazują[38], że od początku 2026 roku sektor technologiczny stracił globalnie ok. 45 363 miejsc pracy, z czego około 9 238 (20%) wiąże się bezpośrednio z wdrożeniami AI i restrukturyzacją. Kristalina Georgieva mówiła w styczniu w Davos[39], że AI „uderza w rynek pracy jak tsunami”, a odsetek osób obawiających się utraty zatrudnienia z powodu automatyzacji wzrósł[40] z 28% w 2024 do 40% w 2026 roku. Dla polskich przedsiębiorstw, zwłaszcza w obszarach back‑office, obsługi klienta i komunikacji, automatyzacja staje się nie tylko technicznie możliwa, lecz także ekonomicznie uzasadniona, przy braku krajowych ram systematycznego przekwalifikowania pracowników.
Źródła
- [1] promptinjection.net
- [2] riskinfo.ai
- [3] releasebot.io
- [4] cnbc.com
- [5] reddit.com
- [6] devflokers.com
- [7] tldl.io
- [8] tech.wp.pl
- [9] champaignmagazine.com
- [10] agilebrandguide.com
- [11] hackerone.com
- [12] kunalganglani.com
- [13] openai.com
- [14] hackerone.com
- [15] getpanto.ai
- [16] cybersecurity-insiders.com
- [17] cyberdefensewire.com
- [18] kennedyslaw.com
- [19] digital-strategy.ec.europa.eu
- [20] creativesunite.eu
- [21] legalnodes.com
- [22] kennedyslaw.com
- [23] secawa.com
- [24] forsal.pl
- [25] europarl.europa.eu
- [26] artificialintelligenceact.eu
- [27] forbes.com
- [28] techcrunch.com
- [29] cnbc.com
- [30] nytimes.com
- [31] thestartupkhan.kit.com
- [32] insights.reinventing.ai
- [33] lastingdynamics.com
- [34] trensee.com
- [35] youtube.com
- [36] llm-stats.com
- [37] ai.google.dev
- [38] theguardian.com
- [39] genuverity.com
- [40] investing.com
Powiązane wpisy:
- Tydzień przełomu w AI: chińska ofensywa, agentowe platformy i kryzys bezpieczeństwa
- NVIDIA, nowe regulacje i fala finansowania. Tydzień, w którym agenci AI wchodzą do głównego nurtu
- Kapitał, agenci i regulacje: tydzień przełomu w globalnym wyścigu AI
- Konflikt Iran – Izrael – USA: Stan na 2 marca 2026 r.
