Dziś jest Twój dzień

Agenci AI wchodzą do biur, rośnie fala ataków i presja AI Act

OpenAI wprowadziło model GPT-5.4, który łączy rozumowanie, kodowanie i natywną obsługę komputera. Jednocześnie rośnie liczba ataków typu prompt injection i deepfake, a AI Act UE zwiększa presję regulacyjną na firmy technologiczne.

5 marca 2026 OpenAI wprowadziło model GPT‑5.4[1], który łączy rozumowanie, kodowanie i natywną obsługę komputera, a więc klikanie myszą, wpisywanie tekstu z klawiatury, wypełnianie formularzy i poruszanie się po aplikacjach. Model osiąga 83,0% w benchmarku GDPval[2] obejmującym 44 zawody opierające się na pracy umysłowej, 75% w teście OSWorld wobec średniej ludzkiej 72,4% oraz 91% w benchmarku dokumentów prawnych. W porównaniu z GPT‑5.2 liczba błędów spadła o 33%[3], a mechanizm „tool search” ogranicza zużycie tokenów o 47%[4] w środowiskach z wieloma narzędziami. Cena API wynosi 2,50 USD za 1 mln tokenów[5] wejściowych i 10 mln tokenów wyjściowych. Równolegle Anthropic udostępniło w ramach pakietów Cowork i Claude Code[6] funkcję computer use, która również pozwala agentowi samodzielnie pracować na komputerze, przy czym firma zastrzega, że rozwiązanie pozostaje na wczesnym etapie i *„ Claude może popełniać błędy[7], a zagrożenia cały czas ewoluują”*. Dla polskich kancelarii prawnych, instytucji finansowych i agencji PR oznacza to konieczność przemyślenia procesów opartych na pracy biurowej i pojawienie się nowych ról typu AI ops zamiast tradycyjnych stanowisk wykonawczych.

Agenci przejmują komputer i biurowe procesy

Wraz z możliwością wykonywania rzeczywistych działań w systemach firmowych gwałtownie rośnie znaczenie bezpieczeństwa[8]. 18 marca 2026 Hacker. One uruchomiło usługę Agentic[9] Prompt Injection Testing – pierwsze komercyjne narzędzie do testowania w warunkach produkcyjnych, czy atak prompt injection na agenta może prowadzić do realnego wycieku danych[10], wykonania kodu lub wysłki e‑maili. Na swojej platformie Hacker. One odnotowało 540% wzrost rok do roku[11] potwierdzonych podatności tego typu, a według audytów Cisco aż 73% produkcyjnych wdrożeń AI zawiera luki[12]. Kolejne 40% organizacji deklaruje, że doświadczyło już ataków omijających zabezpieczenia modeli, a Claw posiada przynajmniej jedną podatność[13]. Nidhi Aggarwal podkreśla, że prompt injection szybko stał się poważnym zagrożeniem[14]. W odpowiedzi OpenAI 10 marca opublikowało przewodnik projektowania agentów[15] odpornych na takie techniki.

Bezpieczeństwo: prompt injection i deepfake

Bombay Stock Exchange (BSE) 8 marca 2026 po raz drugi ostrzegło[16] przed sfabrykowanym nagraniem wideo, w którym deepfake podszywa się pod prezesa Sundararamanę Ramamurthy’ego[17] i promuje fałszywy schemat inwestycyjny. Według bazy AI Incident Database, analizowanej m.in. przez badacza Simona Myliusa z Massachusetts Institute of Technology, oszustwa deepfake działają już na skalę przemysłową[18]syndykat powiązany z Chinami miał wyłudzić[19] w Indiach co najmniej 400 crore rupii (ok. 48 mln USD), a straty brytyjskich konsumentów sięgnęły 9,4 mld funtów[20] w ciągu dziewięciu miesięcy do listopada 2025 roku. jedna z firm finansowych utraciła 500 tys. USD[21] podczas fałszywej wideokonferencji. Dla polskich działów PR i komunikacji korporacyjnej oznacza to realne ryzyko podrobienia wypowiedzi członków zarządu i konieczność wprowadzenia twardych procedur weryfikacji tożsamości w kanałach cyfrowych.

Regulacje UE i presja inwestycji

Na poziomie regulacyjnym kluczowe znaczenie ma AI Act. Komisja Europejska opublikowała drugi projekt Kodeksu Praktyk[22] w sprawie znakowania i oznaczania treści generowanych przez AI, który ma stać się praktycznym wzorcem wypełniania obowiązków transparentności z artykułu 50 rozporządzenia. Dokument promuje dwuwarstwowe podejście oparte na zabezpieczonych metadanych[23] i znakowaniu wodnym dla treści tekstowych, graficznych, audio i wideo. Finalizację Kodeksu zaplanowano na czerwiec 2026[24], czyli dwa miesiące przed pełnym wejściem w życie AI Act 2 sierpnia 2026. Od tego dnia zastosowanie znajdą przepisy dla systemów wysokiego ryzyka, zasady nadzoru rynku oraz wymogi transparentności, a za naruszenia grożą kary do 35 mln euro lub 7% globalnego obrotu w przypadku zakazanych praktyk i do 15 3% przy innych naruszeniach. Parlament Europejski opublikował 17 marca analizę egzekwowania nowych przepisów[25], a platforma artificialintelligenceact.eu przypomina, że każde państwo członkowskie ma obowiązek uruchomić[26] co najmniej jedną piaskownicę regulacyjną AI do 2 sierpnia 2026 roku. ustawa wdrażająca AI Act nadal pozostaje w toku[27], wraz z planowanym powołaniem Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji** jako organu nadzoru, co utrudnia firmom przygotowanie się do nowych wymogów.

Koncentracja kapitału i skutki dla rynku pracy

trwa bezprecedensowa koncentracja kapitału w rękach kilku globalnych graczy[28]. 27 lutego 2026 OpenAI ogłosiło rundę finansowania o wartości 110 mld USD[29], w której Amazon zainwestował 50 mld USD i rozszerzył umowę z AWS[30] o kolejne 100 mld USD na 8 lat, a NVIDIASoft. Bank dołożyły po 30 mld USD. Wycena spółki przed rundą sięgnęła 730 mld USD[31], przy przychodach za 2025 rok na poziomie 13 mld USD i planowanych wydatkach 115 mld USD w ciągu czterech lat. Jednocześnie ChatGPT ma już 900 mln użytkowników tygodniowo[32], 50 mln subskrybentów i 9 mln klientów biznesowych, a spółka pozostaje nierentowna i przygotowuje się do wejścia na giełdę. W tym samym kwartale Anthropic zamknęło rundę Series G o wartości 30 mld USD[33], co łącznie daje 140 mld USD świeżego kapitału dla dwóch wiodących firm modeli frontierowych i znacząco podnosi barierę wejścia dla nowych podmiotów.

Konsekwencje tej dynamiki coraz wyraźniej widać na rynku pracy[34]. Według analiz Goldman Sachs sztuczna inteligencja przyczyniła się w USA w 2025 roku[35] do netto 5–10 tys. utraconych miejsc pracy miesięcznie, a trend przyspiesza w 2026. Firma Block ogłosiła redukcję 4000 etatów[36]10 tys., powołując się bezpośrednio na rosnące możliwości AI, a Amazon zlikwidował 16 tys. stanowisk korporacyjnych[37]. Dane zebrane m.in. przez Digital Journal, Reuters i CNBC wskazują[38], że od początku 2026 roku sektor technologiczny stracił globalnie ok. 45 363 miejsc pracy, z czego około 9 238 (20%) wiąże się bezpośrednio z wdrożeniami AI i restrukturyzacją. Kristalina Georgieva mówiła w styczniu w Davos[39], że AI „uderza w rynek pracy jak tsunami”, a odsetek osób obawiających się utraty zatrudnienia z powodu automatyzacji wzrósł[40]28%2024 do 40%2026 roku. Dla polskich przedsiębiorstw, zwłaszcza w obszarach back‑office, obsługi klienta i komunikacji, automatyzacja staje się nie tylko technicznie możliwa, lecz także ekonomicznie uzasadniona, przy braku krajowych ram systematycznego przekwalifikowania pracowników.


Powiązane wpisy:

Udostępnij: