Dziś obchodzimy: Międzynarodowy Dzień Romów

AI jako narzędzie audytujące tekst: jak w dwie minuty sprawdzam, czy faktycznie trafiam do właściwej grupy odbiorców

Czy AI może pomóc w ocenie trudności i dopasowania tekstu? Tak, jeśli wiesz jak o to zapytać.

Skąd masz pewność, że Twój tekst rzeczywiście zostanie zapamiętany przez czytelnika, a nie tylko przez Ciebie? Bo nie oszukujmy się – każdy potrafi zachwycić się własnym akapitem.

Problem: piszemy „w ciemno”

Jeśli działasz w branży komunikacji, PR czy marketingu, pewnie znasz ten scenariusz: tworzysz tekst, dopracowujesz wstęp, dorzucasz przykład z codzienności, klikasz „wyślij”.

A potem pojawia się feedback:

– „Świetnie, ale może trochę krócej.” – „Dobrze napisane, tylko ludzie tego nie przeczytają.” – „Możesz to uprościć?”

 Klasyka: sporo opinii, mało konkretów. A mnie zależało na czymś znacznie bardziej precyzyjnym:

Na jakim poziomie edukacyjnym czytelnik bez problemu zrozumie ten tekst? Czy język faktycznie jest skierowany do osób z komunikacji, a nie do specjalistów od informatyki? Czy przypadkiem nie piszę bardziej do siebie niż do docelowej grupy?

I tu pojawia się AI – nie jako „generator treści”, lecz jako surowy audytor.

Co AI potrafi wyciągnąć z tekstu w dwie minuty

Zamiast pytać „czy jest OK?”, zacząłem stosować na tekstach coś, co roboczo nazwałem Indeksem Zrozumienia i Rezonansu. Sam tekst na razie pozostawię tajemnicą – zdradzę tylko, że dotyczy naszej branży, a autor jest mi… dość bliski.

W ciągu około dwóch minut AI wygenerowała mi na przykład taki fragment:

„FOG-PL (estymacja): ok. 13–14 → odpowiada końcowi szkoły średniej lub początkom studiów. Jasnopis (estymacja): 4/7 → tekst o średnim stopniu trudności, naturalny dla świadomych odbiorców z branży komunikacji…” Czyli nie „dobrze się czyta”, lecz konkret: – poziom trudności, – sugerowana grupa odbiorców, która bez problemu przyswoi tekst, – ostrzeżenie, że osoby spoza branży mogą mieć trudności.

W innym przypadku audyt wyglądał tak:

„Tekst jest przejrzysty i dobrze dopasowany do świadomego odbiorcy, można by jedynie skrócić 2–3 najdłuższe zdania dla pełnej wygody czytania.” Brzmi jak kolega z zespołu, który zamiast mówić „jest OK”, wskazuje dokładnie, co poprawić.

Albo:

„Żargon jest używany oszczędnie, dobrze wpisuje się w kontekst i w większości został wyjaśniony. Dla tej grupy – poziom bardzo trafiony.”

Nie tylko „czy tekst jest zrozumiały”, ale też: czy poziom specjalistycznego słownictwa jest odpowiedni dla osób z komunikacji, PR czy marketingu, które nie są programistami, ale znają już temat AI.

3 kluczowe warstwy istotne w komunikacji

Najbardziej podoba mi się nie to, że AI „coś tam policzyła”, ale właśnie to, co policzyła i jak to uporządkowała.

Audyt podzielony był na trzy poziomy:

  1. Zrozumiałość językowa – długość zdań, stopień trudności, czy tekst nie przypomina zwartej ściany słów.
  2. Język branżowy – czy skróty jak AI, CMS, „agent”, „asystent” są jasne dla humanisty z marketingu, a nie tylko dla IT.
  3. Rezonans wartości – czy tekst oddaje wartości, na które branża faktycznie reaguje: odciążenie, bezpieczeństwo, odpowiedzialność, realizm zamiast obietnic typu „AI zrobi wszystko za Ciebie”.

Na koniec AI łączy to w jeden wskaźnik – coś na kształt „średniej ważonej” – i podaje: „8,6 / 10 dla specjalistów komunikacji, PR i marketingu”, z uwagą, że brakuje głównie: skrócenia kilku najdłuższych zdań, jednego konkretnego przykładu liczbowego: ile godzin tygodniowo faktycznie oszczędzam, co dokładnie robi za mnie agent.

To już nie jest „magia AI”. To konkretna, statystyczna praca, na którą zwykle brakuje czasu.

Dlaczego to działa – i czemu nie można ślepo ufać wynikom

Dla jasności: to nie jest pojedynczy prompt typu „oceń tekst w skali 1–10”. W tle działa cały system, oparty na:

  • symulacji indeksów czytelności dostosowanych do języka polskiego (FOG-PL, Jasnopis),
  • analizie gęstości informacji (ile konkretów, ile „pustych kalorii”), analizie tonu i sentymentu (czy tekst bardziej edukuje, czy sprzedaje),
  • sprawdzaniu dopasowania do grupy docelowej. To nie jest „widzimisię modelu”.

To praktyczne przełożenie badań z lingwistyki, przetwarzania języka naturalnego oraz doświadczeń z LLM/GPM na narzędzie dla osób piszących po polsku – dla ludzi, nie dla recenzentów naukowych.

Ale – i tu ważna uwaga – traktuję ten indeks jako wskaźnik trendu, a nie ostateczny wyrok. AI świetnie liczy, wykrywa wzorce i wskazuje problematyczne fragmenty. Jednak nie zna Twojej marki tak jak Ty, nie rozumie kontekstu politycznego, branżowego ani wewnętrznych realiów, nie zdejmie z Ciebie odpowiedzialności za każde słowo, które publikujesz. Dlatego u mnie wygląda to tak: najpierw analiza tekstu przez AI, potem moja decyzja, co przyjmuję, a co świadomie zostawiam.

No dobrze, ale co z tego wynika dla humanisty?

Jeśli działasz w komunikacji, PR lub marketingu, pewnie dotąd widziałeś AI głównie na prezentacjach o „rewolucji”. Ja też tak miałem. Dopiero gdy zrobiłem solidny research, rozpisałem metodologię, „przetrenowałem” agenta na polskich tekstach i puściłem przez niego swoje materiały, zobaczyłem sens.

Pod trzema warunkami:

  1. traktujesz AI jako narzędzie analityczne, nie magiczne źródło prawdy,
  2. masz cierpliwość, by raz poświęcić kilka godzin na dobre ustawienie procesu,
  3. wyniki traktujesz jako wsparcie decyzji, a nie wymówkę („tak wyszło z AI, to nie moja wina”).

U mnie „Indeks Zrozumienia i Rezonansu” stał się po prostu kolejnym etapem pracy nad tekstem. Tak jak kiedyś prosiliśmy kolegę: „przeczytaj na świeżo i powiedz szczerze”, tak dziś dorzucam jeszcze jednego, bardzo precyzyjnego czytelnika… który nie męczy się przy trzydziestym akapicie.

A na koniec mam dla Ciebie jedno pytanie:

kiedy ostatni raz ktoś naprawdę przeanalizował Twój tekst, zamiast tylko rzucić „dobrze się czyta”?

Udostępnij: