cykliczne porady dla sprzedawców, opinie ekspertów

Test na wiarygodność

Blisko połowa odpowiedzi generowanych przez AI zawiera istotne błędy – wynika z międzynarodowych badań koordynowanych przez Europejską Unię Nadawców. Polskie Badania Czytelnictwa zreplikowały te testy na rynku polskim, uzyskując porażające wyniki. W dobie rewolucji AI wydawcy stają przed pytaniem: jak bronić wartości rzetelnego dziennikarstwa?

Fot. Adobe Stock

Gdy maszyna kłamie

Dla milionów ludzi na świecie AI stało się już codziennym źródłem informacji. ChatGPT, Gemini, Perplexity – te nazwy przestały być egzotyczne, a ich interfejsy zastępują tradycyjne wyszukiwarki. Google, wiodący gracz na rynku wyszukiwania, w 2025 roku masowo wdrożył w Polsce modele AI Overview i AI Mode. Eksperci szacują, że już nawet 20% zapytań otrzymuje odpowiedzi generowane przez sztuczną inteligencję, a w niektórych segmentach tematycznych odsetek ten sięga 50%.

Problem w tym, że te odpowiedzi są często błędne. I to nie w sposób marginalny.

Na webinarze zorganizowanym przez Polskie Badania Czytelnictwa 13 stycznia 2026 roku przedstawiono wyniki badań, które powinny zaniepokoić każdego, kto przejmuje się jakością informacji w przestrzeni publicznej. Renata Krzewska, prezeska PBC, zaprezentowała replikację międzynarodowych testów dotyczących jakości odpowiedzi AI przeprowadzonych w języku polskim.

Liczby mówią same za siebie: aż 46% odpowiedzi zawierało co najmniej jeden istotny błąd, 27% miało poważne problemy ze źródłami – brakujące, wprowadzające w błąd lub nieprawidłowo przypisane, a 19% zawierało poważne braki w dokładności, w tym tzw. halucynacje i nieaktualne informacje.

Systemowy problem x 14

To nie jest przypadek ani lokalny problem polskiego rynku. Badania międzynarodowe koordynowane przez Europejską Unię Nadawców (EBU) pod kierownictwem BBC objęły 18 krajów i 14 języków – od Belgii, przez Kanadę, Czechy, Finlandię, Francję, po Włochy, Norwegię czy Stany Zjednoczone. Wszędzie wyniki były zbieżne.

Profesjonalni dziennikarze ocenili blisko 3000 odpowiedzi z najpopularniejszych modeli językowych. Sprawdzali dokładność, jakość odniesień do źródeł, odróżnienie opinii od faktów, kontekst wypowiedzi. W każdym kryterium, w każdym języku, na każdym rynku – AI zawodził.

– Badania jednoznacznie dowodzą, że te niedociągnięcia nie są odosobnionymi incydentami. Mają one charakter systemowy, transgraniczny i wielojęzyczny, i naszym zdaniem zagrażają zaufaniu publicznemu. Kiedy ludzie nie wiedzą, komu ufać, w końcu nie ufają niczemu, a to może zniechęcać do uczestnictwa w demokracji – podkreślał Jean Philip De Tender, dyrektor ds. mediów i zastępca dyrektora generalnego EBU.

Polskie testy PBC ujawniły jeszcze jeden niepokojący wzorzec. Podczas gdy w przypadku ogólnych informacji jedna trzecia wypowiedzi zawierało co najmniej jeden istotny błąd, w treściach specjalistycznych sytuacja była dramatycznie gorsza.

Co najmniej jeden istotny błąd zawierało 67% zapytań generowanych na treściach poradniczych dla kobiet i aż 60% w treściach specjalistycznych – zdrowotnych, budowlanych czy ogrodniczych. Innymi słowy: im bardziej fachowej wiedzy potrzebujemy, tym mniej możemy polegać na AI.

– Mimo przełomowej zmiany, jaka się dokonała w sposobie wyszukiwania informacji, błędy są na tyle poważne, że mogą zagrażać reputacji cytowanych mediów. Odniesienie w źródłach do renomowanej redakcji czy nazwiska znanego dziennikarza uwiarygadnia podsumowanie, które często nie jest najlepszej jakości – zauważa Renata Krzewska, prezeska Polskich Badań Czytelnictwa. I dodaje: – Opinie naukowców wskazują, że algorytmy sztucznej inteligencji mogą popełniać błędy, ponieważ niektóre pytania są z natury trudne lub po prostu nie mają uogólnialnego wzorca. Błędne odpowiedzi wynikają także ze zwyczajnego przyzwolenia firm technologicznych; gdyby model zbyt często przyznawał się do odpowiedzi „nie wiem”, użytkownicy po prostu szukaliby odpowiedzi gdzie indziej.

Między narzędziem a zagrożeniem

Dla wydawców sztuczna inteligencja to skomplikowane wyzwanie. Z jednej strony AI wspiera ich pracę, z drugiej – wykorzystuje ich treści do trenowania modeli językowych. Z trzeciej wreszcie – stanowi konkurencję, odbierając ruch na stronach internetowych.

– Sztuczna inteligencja to potencjał i rewolucja w wielu obszarach przetwarzania i udostępniania informacji. Wszyscy wydawcy z niej korzystają. Jednocześnie zwracamy uwagę na to, że rośnie liczba fake newsów, odczuwamy poczucie nadmiaru i przytłoczenia dlatego rośnie znaczenie weryfikowanych danych, powrót do treści statycznych i infografik, artykułów podpisanych przez dziennikarzy z uznanym nazwiskiem i treści sygnowanych silną marką tytułu – mówi Izabela Sarnecka z Wydawnictwa Bauer, podkreślając, że prasa oferuje nie tylko wiarygodne treści, ale też wysoką skuteczność reklam – aż 94% wskaźnika widoczności.

Roman Imielski z Wydawnictwa Wyborcza nie kryje, że stawka jest wysoka: – Giganci cyfrowi z Doliny Krzemowej zainwestują w sztuczną inteligencję w tym roku 1,5 biliona dolarów, próbują odbierać wydawcom dużą część ruchu. Celem Big Techów jest osłabianie wiarygodności mediów, a także ich pozycji finansowej. Jest to wspierane przez sposób prowadzenia polityki przez Prezydenta USA. Jednak coraz większa jest świadomość, że sztuczna inteligencja jest rozsiewcą treści, które nie są zgodne z rzeczywistością.

Odpowiedzią wydawców jest wzmacnianie ruchu bezpośredniego na swoje strony i rozbudowa systemów subskrypcyjnych. Roman Imielski przekonuje: – Jakościowe dziennikarstwo nadal wygrywa z treściami generowanymi przez sztuczną inteligencję. Odbiorcy cenią teksty przygotowane przez ludzi za rzetelność, kontekst i odpowiedzialność autora. Za każdym tekstem stoi człowiek i procedury redakcyjne. Wydawcy i redakcje coraz częściej informują, jak i czy wykorzystują AI, a ta transparentność buduje zaufanie czytelników.

Rewolucja czy ewolucja?

Joanna Winiarska z Burda Media zwraca uwagę na fundamentalne nieporozumienie: – Zakładamy błędnie, że sztuczna inteligencja jest inteligentna. Tak nie jest. Jest to zgrabne i przydatne narzędzie statystyczne w przypadku pracy dziennikarskiej do formułowania zdań, wypowiedzi, figur retorycznych. Jest dużo szybsza w kombinatoryce słów, tytułów, metaopisów, o czym wiedzą wszyscy pracujący w redakcjach internetowych.

W praktyce Burda Media wypracowała cztery sprawdzone zasady pracy z AI. – Po pierwsze – musimy opierać się na sprawdzonych źródłach. Po drugie – wyselekcjonować odpowiednie i dopasowane do nas narzędzia. Po trzecie – ważne jest bardzo szczegółowe, rzemieślnicze promptowanie, które jest nową dziennikarską umiejętnością. Po czwarte wreszcie – human touch: każda treść musi mieć sygnaturę i pieczątkę, że tekst jest napisany przez prawdziwego dziennikarza – wyjaśnia Joanna Winiarska. I podsumowuje: – Wątpliwe jest, aby sztuczna inteligencja wyparła dziennikarstwo. Wciąż ważny jest świadomy wybór wątków przez dziennikarza, staranna praca z tekstem oraz dziennikarska odpowiedzialność i krytyczne spojrzenie w kontrze do próbującej nas zadowolić sztucznej inteligencji.

Z kolei Hubert Biskupski z Grupy ZPR Media (Time) formułuje kluczowe pytanie: czy sztuczna inteligencja stanowi rewolucję czy ewolucję? – Ani dziś, ani jutro jeszcze nie poznamy odpowiedzi na to pytanie – przyznaje.

– Są obszary, na które nie mamy wpływu, w szczególności skala inwestycji Big Techów w AI i regulacje prawne na poziomie europejskim. Czy sztuczna inteligencja stanowi zagrożenie dla dziennikarzy i wydawców? Z jednej strony jest ona dużym wsparciem narzędziowym dla dziennikarzy, z drugiej jest pewnego rodzaju zagrożeniem, obniża ruchu na stronach internetowych tytułów – wyjaśnia Hubert Biskupski.

Podkreśla jednak, że zawód dziennikarza przetrwa, choć będzie się zmieniał: Dla czytelników wciąż ważne jest zaufanie wobec konkretnych redakcji i dziennikarzy. W wielu obszarach dziennikarz jest niezastępowalny, bo element weryfikacyjny jest kluczowy. Mamy szereg twórczości dziennikarskiej, z którą AI sobie nie radzi: treści społecznie zaangażowane, gdzie niezbędna jest znajomość kontekstu czy historii; dotarcie do źródeł osobowych, czy szerzej dziennikarstwo śledcze, które uwzględnia m.in. kontekst polityczny, odporność na próby dezinformacji czy manipulowania.

Cyfrowy minimalizm

Algorytmy AI mogą szybko wygenerować tekst czy obraz. Ale to człowiek – dziennikarz czyni prasę wiarygodną. Ważne jest osadzenie artykułu w lokalnym kontekście, niezależnie od tego, czy to jest materiał w prasie drukowanej, czy internetowej, zaufanie do dziennikarza piszącego materiał – osoby doświadczonej, znanej i rozpoznawalnej w lokalnej społeczności, odpowiadającej swoim nazwiskiem za publikowane treści. Ta rzetelność lokalnych treści ma też wartość rynkową. Partnerzy biznesowi kupują co miesiąc setki lokalnych artykułów, doceniając ich wiarygodność i autentyczność  są to cechy nieosiągalne dla algorytmów uważa Mariusz Ulewak z Polska Press.

Anna Dygasiewicz-Piwko z Ringier Axel Springer przyznaje, że „AI tworzy w dużej części treści zawierające błędy, ucina nam ruch z platform”. Ale widzi też pozytywne aspekty: Potencjał AI jest widoczny w optymalizacji treści i wsparciu pracy redakcji. Jest wiele żmudnych i pracochłonnych czynności, których czytelnicy nie widzą czy nie odczuwają, a redakcje mogą wspierać się AI przy tworzeniu tytułów, transkrypcji wywiadów czy robieniu streszczeń – czynnościach, które uwolnią czas, który dziennikarz może wykorzystać na lepsze zbadanie tematu. Cały artykuł i tak musi być zweryfikowany i zaakceptowany przez dziennikarza tłumaczy Agnieszka Dygasiewicz-Piwko. Wskazuje również na interesujący trend: Wydawcy na świecie uruchamiają własne czaty oparte o AI, są one wyższej jakości niż otwarte narzędzia, bo opierają się na treściach wyprodukowanych w redakcjach, przez prawdziwych dziennikarzy. Odpowiadają one na pytania, skracają artykuły czy podsumowują dzień.

Przedstawicielka Ringier Axel Springer przywołuje też ważny kontekst społeczny, cytując Jowitę Michalską, CEO Digital University: „Badania Microsoft i University of London pokazują, że ciągłe powiadomienia cyfrowe mogą obniżyć efektywne IQ człowieka w danym momencie nawet o 10-15 punktów, co jest równowartością braku nocnego snu. W środowisku nasyconym AI rozproszenie narasta znacznie szybciej niż produktywność i wszyscy to czujemy”.

Przewaga konkurencyjna firm może zależeć od tego, jak dobrze liderzy chronią swoją uwagę – dodaje Agnieszka Dygasiewicz-Piwko. – Okazuje się, że nie tylko umiejętność zastosowania AI w organizacji będzie dawała przewagę.

Człowiek w centrum

Z webinaru PBC wyłania się jasny wniosek: sztuczna inteligencja to potężne narzędzie, ale nie zamiennik dziennikarza. Może wspierać pracę redakcji, przyspieszać rutynowe czynności, pomagać w analizie danych. Nie zastąpi jednak ludzkiego osądu, znajomości kontekstu, odpowiedzialności za słowo.

W dobie, gdy niemal połowa odpowiedzi AI zawiera błędy, wartość rzetelnego dziennikarstwa rośnie. Transparentność, sygnowanie tekstów nazwiskami, procedury redakcyjne, lokalne zakorzenienie – to cechy, których algorytmy nie naśladują.

Dla marek prasowych – często będących źródłami odpowiedzi dla AI – kluczowe jest utrzymywanie wysokiej reputacji i wiarygodności, kierowanie odbiorców bezpośrednio do swoich treści, pokazywanie, że za nimi stoi tradycja, profesjonalizm oraz ciężka praca.

Według raportu Digital News Report Instytutu Reutersa z 2025 roku tylko 7% wszystkich odbiorców wiadomości online intencjonalnie korzysta z asystentów AI. Wśród osób poniżej 25. roku życia odsetek ten wzrasta do 15%. To wciąż niewielkie liczby, ale trend jest wyraźny.

Pytanie brzmi: czy w obliczu systemowych problemów z jakością odpowiedzi AI ludzie będą wracać do sprawdzonych źródeł? Czy zaufanie do tradycyjnych mediów – podważane przez błędne streszczenia generowane przez algorytmy – przetrwa?

Odpowiedź na te pytania będzie kształtować przyszłość mediów w nadchodzących latach. Jedno jest pewne: w tej rywalizacji między maszyną a człowiekiem stawką jest samo zaufanie publiczne – fundament demokracji.

oprac. DARIUSZ MATEREK

Artykuł powstał na podstawie webinaru „Prasa się liczy. Trendy 2025/2026” zorganizowanego przez Polskie Badania Czytelnictwa w dniu 13 stycznia 2026 roku.