Skąd masz pewność, że Twój tekst rzeczywiście zostanie zapamiętany przez czytelnika, a nie tylko przez Ciebie? Bo nie oszukujmy się – każdy potrafi zachwycić się własnym akapitem.
Problem: piszemy „w ciemno”
Jeśli działasz w branży komunikacji, PR czy marketingu, pewnie znasz ten scenariusz: tworzysz tekst, dopracowujesz wstęp, dorzucasz przykład z codzienności, klikasz „wyślij”.
A potem pojawia się feedback:
– „Świetnie, ale może trochę krócej.” – „Dobrze napisane, tylko ludzie tego nie przeczytają.” – „Możesz to uprościć?”
Klasyka: sporo opinii, mało konkretów. A mnie zależało na czymś znacznie bardziej precyzyjnym:
Na jakim poziomie edukacyjnym czytelnik bez problemu zrozumie ten tekst? Czy język faktycznie jest skierowany do osób z komunikacji, a nie do specjalistów od informatyki? Czy przypadkiem nie piszę bardziej do siebie niż do docelowej grupy?
I tu pojawia się AI – nie jako „generator treści”, lecz jako surowy audytor.
Co AI potrafi wyciągnąć z tekstu w dwie minuty
Zamiast pytać „czy jest OK?”, zacząłem stosować na tekstach coś, co roboczo nazwałem Indeksem Zrozumienia i Rezonansu. Sam tekst na razie pozostawię tajemnicą – zdradzę tylko, że dotyczy naszej branży, a autor jest mi… dość bliski.
W ciągu około dwóch minut AI wygenerowała mi na przykład taki fragment:
„FOG-PL (estymacja): ok. 13–14 → odpowiada końcowi szkoły średniej lub początkom studiów. Jasnopis (estymacja): 4/7 → tekst o średnim stopniu trudności, naturalny dla świadomych odbiorców z branży komunikacji…” Czyli nie „dobrze się czyta”, lecz konkret: – poziom trudności, – sugerowana grupa odbiorców, która bez problemu przyswoi tekst, – ostrzeżenie, że osoby spoza branży mogą mieć trudności.
W innym przypadku audyt wyglądał tak:
„Tekst jest przejrzysty i dobrze dopasowany do świadomego odbiorcy, można by jedynie skrócić 2–3 najdłuższe zdania dla pełnej wygody czytania.” Brzmi jak kolega z zespołu, który zamiast mówić „jest OK”, wskazuje dokładnie, co poprawić.
Albo:
„Żargon jest używany oszczędnie, dobrze wpisuje się w kontekst i w większości został wyjaśniony. Dla tej grupy – poziom bardzo trafiony.”
Nie tylko „czy tekst jest zrozumiały”, ale też: czy poziom specjalistycznego słownictwa jest odpowiedni dla osób z komunikacji, PR czy marketingu, które nie są programistami, ale znają już temat AI.
3 kluczowe warstwy istotne w komunikacji
Najbardziej podoba mi się nie to, że AI „coś tam policzyła”, ale właśnie to, co policzyła i jak to uporządkowała.
Audyt podzielony był na trzy poziomy:
- Zrozumiałość językowa – długość zdań, stopień trudności, czy tekst nie przypomina zwartej ściany słów.
- Język branżowy – czy skróty jak AI, CMS, „agent”, „asystent” są jasne dla humanisty z marketingu, a nie tylko dla IT.
- Rezonans wartości – czy tekst oddaje wartości, na które branża faktycznie reaguje: odciążenie, bezpieczeństwo, odpowiedzialność, realizm zamiast obietnic typu „AI zrobi wszystko za Ciebie”.
Na koniec AI łączy to w jeden wskaźnik – coś na kształt „średniej ważonej” – i podaje: „8,6 / 10 dla specjalistów komunikacji, PR i marketingu”, z uwagą, że brakuje głównie: skrócenia kilku najdłuższych zdań, jednego konkretnego przykładu liczbowego: ile godzin tygodniowo faktycznie oszczędzam, co dokładnie robi za mnie agent.
To już nie jest „magia AI”. To konkretna, statystyczna praca, na którą zwykle brakuje czasu.
Dlaczego to działa – i czemu nie można ślepo ufać wynikom
Dla jasności: to nie jest pojedynczy prompt typu „oceń tekst w skali 1–10”. W tle działa cały system, oparty na:
- symulacji indeksów czytelności dostosowanych do języka polskiego (FOG-PL, Jasnopis),
- analizie gęstości informacji (ile konkretów, ile „pustych kalorii”), analizie tonu i sentymentu (czy tekst bardziej edukuje, czy sprzedaje),
- sprawdzaniu dopasowania do grupy docelowej. To nie jest „widzimisię modelu”.
To praktyczne przełożenie badań z lingwistyki, przetwarzania języka naturalnego oraz doświadczeń z LLM/GPM na narzędzie dla osób piszących po polsku – dla ludzi, nie dla recenzentów naukowych.
Ale – i tu ważna uwaga – traktuję ten indeks jako wskaźnik trendu, a nie ostateczny wyrok. AI świetnie liczy, wykrywa wzorce i wskazuje problematyczne fragmenty. Jednak nie zna Twojej marki tak jak Ty, nie rozumie kontekstu politycznego, branżowego ani wewnętrznych realiów, nie zdejmie z Ciebie odpowiedzialności za każde słowo, które publikujesz. Dlatego u mnie wygląda to tak: najpierw analiza tekstu przez AI, potem moja decyzja, co przyjmuję, a co świadomie zostawiam.
No dobrze, ale co z tego wynika dla humanisty?
Jeśli działasz w komunikacji, PR lub marketingu, pewnie dotąd widziałeś AI głównie na prezentacjach o „rewolucji”. Ja też tak miałem. Dopiero gdy zrobiłem solidny research, rozpisałem metodologię, „przetrenowałem” agenta na polskich tekstach i puściłem przez niego swoje materiały, zobaczyłem sens.
Pod trzema warunkami:
- traktujesz AI jako narzędzie analityczne, nie magiczne źródło prawdy,
- masz cierpliwość, by raz poświęcić kilka godzin na dobre ustawienie procesu,
- wyniki traktujesz jako wsparcie decyzji, a nie wymówkę („tak wyszło z AI, to nie moja wina”).
U mnie „Indeks Zrozumienia i Rezonansu” stał się po prostu kolejnym etapem pracy nad tekstem. Tak jak kiedyś prosiliśmy kolegę: „przeczytaj na świeżo i powiedz szczerze”, tak dziś dorzucam jeszcze jednego, bardzo precyzyjnego czytelnika… który nie męczy się przy trzydziestym akapicie.
A na koniec mam dla Ciebie jedno pytanie:
kiedy ostatni raz ktoś naprawdę przeanalizował Twój tekst, zamiast tylko rzucić „dobrze się czyta”?
