Niewidoczny kod zmienia prawo
W sierpniu 2025 roku Kalifornia zatwierdziła AI Transparency Act (SB-942), który wymaga od dostawców systemów AI ujawniania, czy zawartość została wygenerowana przez algorytm. Dla firm pracujących z AI – a w 2025 roku to niemal każdy – to zmienia wszystko.
Dokument musi zawierać:
- imię i nazwisko dostawcy AI,
- wersję systemu,
- czas tworzenia,
- unikalny identyfikator.
Termin na spełnienie wymogów to sierpień 2026 roku.
Ale Kalifornia to dopiero początek. Ponad 550 projektów ustaw dotyczących AI pojawiło się w ponad 45 stanach USA w latach 2024–2025. Międzynarodowo, SEC zmienia wymogi raportowania AI w dokumentach finansowych. Coraz więcej firm publicznych musi ujawniać wykorzystanie AI w swoich raportach rocznych.
Dla zespołów PR oznacza to nową kategorię komunikacji: nie „co mówimy o naszych produktach", lecz „które słowa w naszej komunikacji zostały napisane przez AI".
Globalna harmonizacja: ile regulacji to już za dużo?
NTIA (National Telecommunications and Information Administration) zajmuje się koordynacją między stanami a władzami federalnymi, aby uniknąć patchworku regulacji.
Problem w tym, że każdy kraj przyjmuje inne podejście:
- USA – skupienie na ujawnianiu i przejrzystości,
- UE – bardziej regulacyjne podejście, zakazujące ryzykownych zastosowań AI,
- Chiny – monitoring w celu kontroli społecznej,
- Nowa Zelandia – koncentracja na uprzedzeniach i dyskryminacji.
Dla globalnych firm działających w dziesiątkach krajów to tworzy chaos. Trzeba przygotować różne komunikaty dla USA, UE i Azji.
South Korea’s AI Basic Act: surowy test wdrożeniowy
W charakterystycznym przykładzie globalnej harmonizacji, Korea Południowa zatwierdziła AI Basic Act w styczniu 2025 roku, który wymaga ujawniania informacji o „high-impact” AI w obszarach:
- opieki zdrowotnej,
- transportu,
- usług finansowych.
Korea Południowa poszła dalej niż USA – nie tylko wymaga przejrzystości, ale także oceny wpływu na środowisko dla energochłonnych modeli AI.
Dla firm działających w Korei oznacza to, że jeśli używasz AI do podejmowania decyzji medycznych, transportowych lub finansowych, musisz to ujawnić publicznie i wykazać, że system został opracowany odpowiedzialnie.
Wyzwanie dla agencji komunikacji
Hinshaw Law’s AI Regulatory Roadmap na 2025 rok wskazuje, że agencje PR muszą teraz ściśle współpracować z działami prawnymi, compliance i zespołami produktowymi, aby:
- Zmapować wszystkich użytkowników AI – gdzie w organizacji AI jest wykorzystywane?
- Zidentyfikować przypadki o wysokim ryzyku – czy dany system AI wpływa na bezpieczeństwo, prywatność lub ryzyko dyskryminacji?
- Przygotować komunikację prewencyjną – mówić proaktywnie, zanim regulacje tego zażądają.
Firmy, które będą czekać na obowiązki regulacyjne, by być transparentne, napotkają problemy. Już teraz media i aktywiści szukają firm używających AI bez ujawnienia.
Case study: gdy ujawnienie staje się strategią
Kilka firm przeszło od obrony do ofensywy – komunikując wykorzystanie AI jako element budujący zaufanie.
Jedna globalna korporacja technologiczna opublikowała raport transparentności AI, pokazując, gdzie wykorzystuje AI, jak testuje systemy i jakie zabezpieczenia stosuje. Efekt? Wzrost zaufania klientów, ponieważ firma otwarcie informuje o swoich działaniach.
Inny przykład: firma, która ujawniła, że jej chatbot działa dzięki AI, zamiast to ukrywać, poprawiła wskaźnik satysfakcji klientów, bo użytkownicy mieli realistyczne oczekiwania.
Wytyczne na lata 2025–2026
Dla agencji PR i doradców strategia powinna wyglądać następująco:
Etap przed wdrożeniem regulacji:
- audyt wszystkich zastosowań AI,
- przygotowanie przejrzystych komunikatów,
- budowanie relacji z organami regulacyjnymi.
Etap zgodności z regulacjami:
- publikowanie ujawnień na oficjalnych platformach,
- proaktywna komunikacja w mediach,
- uwzględnianie tematu w raportach o zrównoważonym rozwoju (jeśli są publikowane).
Etap po wdrożeniu:
- monitorowanie opinii mediów na temat wykorzystania AI,
- zbieranie opinii od klientów,
- ciągłe dostosowywanie komunikacji.
Najlepsze agencje PR będą tymi, które zrozumieją AI nie jako problem techniczny, lecz jako przełom komunikacyjny – szansę na budowanie zaufania przez przejrzystość.
