Blisko połowa odpowiedzi generowanych przez AI zawiera istotne błędy – wynika z międzynarodowych badań koordynowanych przez Europejską Unię Nadawców. Polskie Badania Czytelnictwa zreplikowały te testy na rynku polskim, uzyskując porażające wyniki. W dobie rewolucji AI wydawcy stają przed pytaniem: jak bronić wartości rzetelnego dziennikarstwa?

Gdy maszyna kłamie
Dla milionów ludzi na świecie AI stało się już codziennym źródłem informacji. ChatGPT, Gemini, Perplexity – te nazwy przestały być egzotyczne, a ich interfejsy zastępują tradycyjne wyszukiwarki. Google, wiodący gracz na rynku wyszukiwania, w 2025 roku masowo wdrożył w Polsce modele AI Overview i AI Mode. Eksperci szacują, że już nawet 20% zapytań otrzymuje odpowiedzi generowane przez sztuczną inteligencję, a w niektórych segmentach tematycznych odsetek ten sięga 50%.
Problem w tym, że te odpowiedzi są często błędne. I to nie w sposób marginalny.
Na webinarze zorganizowanym przez Polskie Badania Czytelnictwa 13 stycznia 2026 roku przedstawiono wyniki badań, które powinny zaniepokoić każdego, kto przejmuje się jakością informacji w przestrzeni publicznej. Renata Krzewska, prezeska PBC, zaprezentowała replikację międzynarodowych testów dotyczących jakości odpowiedzi AI przeprowadzonych w języku polskim.
Liczby mówią same za siebie: aż 46% odpowiedzi zawierało co najmniej jeden istotny błąd, 27% miało poważne problemy ze źródłami – brakujące, wprowadzające w błąd lub nieprawidłowo przypisane, a 19% zawierało poważne braki w dokładności, w tym tzw. halucynacje i nieaktualne informacje.
Systemowy problem x 14
To nie jest przypadek ani lokalny problem polskiego rynku. Badania międzynarodowe koordynowane przez Europejską Unię Nadawców (EBU) pod kierownictwem BBC objęły 18 krajów i 14 języków – od Belgii, przez Kanadę, Czechy, Finlandię, Francję, po Włochy, Norwegię czy Stany Zjednoczone. Wszędzie wyniki były zbieżne.
Profesjonalni dziennikarze ocenili blisko 3000 odpowiedzi z najpopularniejszych modeli językowych. Sprawdzali dokładność, jakość odniesień do źródeł, odróżnienie opinii od faktów, kontekst wypowiedzi. W każdym kryterium, w każdym języku, na każdym rynku – AI zawodził.
– Badania jednoznacznie dowodzą, że te niedociągnięcia nie są odosobnionymi incydentami. Mają one charakter systemowy, transgraniczny i wielojęzyczny, i naszym zdaniem zagrażają zaufaniu publicznemu. Kiedy ludzie nie wiedzą, komu ufać, w końcu nie ufają niczemu, a to może zniechęcać do uczestnictwa w demokracji – podkreślał Jean Philip De Tender, dyrektor ds. mediów i zastępca dyrektora generalnego EBU.
Polskie testy PBC ujawniły jeszcze jeden niepokojący wzorzec. Podczas gdy w przypadku ogólnych informacji jedna trzecia wypowiedzi zawierało co najmniej jeden istotny błąd, w treściach specjalistycznych sytuacja była dramatycznie gorsza.
Co najmniej jeden istotny błąd zawierało 67% zapytań generowanych na treściach poradniczych dla kobiet i aż 60% w treściach specjalistycznych – zdrowotnych, budowlanych czy ogrodniczych. Innymi słowy: im bardziej fachowej wiedzy potrzebujemy, tym mniej możemy polegać na AI.
– Mimo przełomowej zmiany, jaka się dokonała w sposobie wyszukiwania informacji, błędy są na tyle poważne, że mogą zagrażać reputacji cytowanych mediów. Odniesienie w źródłach do renomowanej redakcji czy nazwiska znanego dziennikarza uwiarygadnia podsumowanie, które często nie jest najlepszej jakości – zauważa Renata Krzewska, prezeska Polskich Badań Czytelnictwa. I dodaje: – Opinie naukowców wskazują, że algorytmy sztucznej inteligencji mogą popełniać błędy, ponieważ niektóre pytania są z natury trudne lub po prostu nie mają uogólnialnego wzorca. Błędne odpowiedzi wynikają także ze zwyczajnego przyzwolenia firm technologicznych; gdyby model zbyt często przyznawał się do odpowiedzi „nie wiem”, użytkownicy po prostu szukaliby odpowiedzi gdzie indziej.
Między narzędziem a zagrożeniem
Dla wydawców sztuczna inteligencja to skomplikowane wyzwanie. Z jednej strony AI wspiera ich pracę, z drugiej – wykorzystuje ich treści do trenowania modeli językowych. Z trzeciej wreszcie – stanowi konkurencję, odbierając ruch na stronach internetowych.
– Sztuczna inteligencja to potencjał i rewolucja w wielu obszarach przetwarzania i udostępniania informacji. Wszyscy wydawcy z niej korzystają. Jednocześnie zwracamy uwagę na to, że rośnie liczba fake newsów, odczuwamy poczucie nadmiaru i przytłoczenia dlatego rośnie znaczenie weryfikowanych danych, powrót do treści statycznych i infografik, artykułów podpisanych przez dziennikarzy z uznanym nazwiskiem i treści sygnowanych silną marką tytułu – mówi Izabela Sarnecka z Wydawnictwa Bauer, podkreślając, że prasa oferuje nie tylko wiarygodne treści, ale też wysoką skuteczność reklam – aż 94% wskaźnika widoczności.
Roman Imielski z Wydawnictwa Wyborcza nie kryje, że stawka jest wysoka: – Giganci cyfrowi z Doliny Krzemowej zainwestują w sztuczną inteligencję w tym roku 1,5 biliona dolarów, próbują odbierać wydawcom dużą część ruchu. Celem Big Techów jest osłabianie wiarygodności mediów, a także ich pozycji finansowej. Jest to wspierane przez sposób prowadzenia polityki przez Prezydenta USA. Jednak coraz większa jest świadomość, że sztuczna inteligencja jest rozsiewcą treści, które nie są zgodne z rzeczywistością.
Odpowiedzią wydawców jest wzmacnianie ruchu bezpośredniego na swoje strony i rozbudowa systemów subskrypcyjnych. Roman Imielski przekonuje: – Jakościowe dziennikarstwo nadal wygrywa z treściami generowanymi przez sztuczną inteligencję. Odbiorcy cenią teksty przygotowane przez ludzi za rzetelność, kontekst i odpowiedzialność autora. Za każdym tekstem stoi człowiek i procedury redakcyjne. Wydawcy i redakcje coraz częściej informują, jak i czy wykorzystują AI, a ta transparentność buduje zaufanie czytelników.
Rewolucja czy ewolucja?
Joanna Winiarska z Burda Media zwraca uwagę na fundamentalne nieporozumienie: – Zakładamy błędnie, że sztuczna inteligencja jest inteligentna. Tak nie jest. Jest to zgrabne i przydatne narzędzie statystyczne w przypadku pracy dziennikarskiej do formułowania zdań, wypowiedzi, figur retorycznych. Jest dużo szybsza w kombinatoryce słów, tytułów, metaopisów, o czym wiedzą wszyscy pracujący w redakcjach internetowych.
W praktyce Burda Media wypracowała cztery sprawdzone zasady pracy z AI. – Po pierwsze – musimy opierać się na sprawdzonych źródłach. Po drugie – wyselekcjonować odpowiednie i dopasowane do nas narzędzia. Po trzecie – ważne jest bardzo szczegółowe, rzemieślnicze promptowanie, które jest nową dziennikarską umiejętnością. Po czwarte wreszcie – human touch: każda treść musi mieć sygnaturę i pieczątkę, że tekst jest napisany przez prawdziwego dziennikarza – wyjaśnia Joanna Winiarska. I podsumowuje: – Wątpliwe jest, aby sztuczna inteligencja wyparła dziennikarstwo. Wciąż ważny jest świadomy wybór wątków przez dziennikarza, staranna praca z tekstem oraz dziennikarska odpowiedzialność i krytyczne spojrzenie w kontrze do próbującej nas zadowolić sztucznej inteligencji.
Z kolei Hubert Biskupski z Grupy ZPR Media (Time) formułuje kluczowe pytanie: czy sztuczna inteligencja stanowi rewolucję czy ewolucję? – Ani dziś, ani jutro jeszcze nie poznamy odpowiedzi na to pytanie – przyznaje.
– Są obszary, na które nie mamy wpływu, w szczególności skala inwestycji Big Techów w AI i regulacje prawne na poziomie europejskim. Czy sztuczna inteligencja stanowi zagrożenie dla dziennikarzy i wydawców? Z jednej strony jest ona dużym wsparciem narzędziowym dla dziennikarzy, z drugiej jest pewnego rodzaju zagrożeniem, obniża ruchu na stronach internetowych tytułów – wyjaśnia Hubert Biskupski.
Podkreśla jednak, że zawód dziennikarza przetrwa, choć będzie się zmieniał: – Dla czytelników wciąż ważne jest zaufanie wobec konkretnych redakcji i dziennikarzy. W wielu obszarach dziennikarz jest niezastępowalny, bo element weryfikacyjny jest kluczowy. Mamy szereg twórczości dziennikarskiej, z którą AI sobie nie radzi: treści społecznie zaangażowane, gdzie niezbędna jest znajomość kontekstu czy historii; dotarcie do źródeł osobowych, czy szerzej dziennikarstwo śledcze, które uwzględnia m.in. kontekst polityczny, odporność na próby dezinformacji czy manipulowania.
Cyfrowy minimalizm
– Algorytmy AI mogą szybko wygenerować tekst czy obraz. Ale to człowiek – dziennikarz czyni prasę wiarygodną. Ważne jest osadzenie artykułu w lokalnym kontekście, niezależnie od tego, czy to jest materiał w prasie drukowanej, czy internetowej, zaufanie do dziennikarza piszącego materiał – osoby doświadczonej, znanej i rozpoznawalnej w lokalnej społeczności, odpowiadającej swoim nazwiskiem za publikowane treści. Ta rzetelność lokalnych treści ma też wartość rynkową. Partnerzy biznesowi kupują co miesiąc setki lokalnych artykułów, doceniając ich wiarygodność i autentyczność – są to cechy nieosiągalne dla algorytmów – uważa Mariusz Ulewak z Polska Press.
Anna Dygasiewicz-Piwko z Ringier Axel Springer przyznaje, że „AI tworzy w dużej części treści zawierające błędy, ucina nam ruch z platform”. Ale widzi też pozytywne aspekty: – Potencjał AI jest widoczny w optymalizacji treści i wsparciu pracy redakcji. Jest wiele żmudnych i pracochłonnych czynności, których czytelnicy nie widzą czy nie odczuwają, a redakcje mogą wspierać się AI przy tworzeniu tytułów, transkrypcji wywiadów czy robieniu streszczeń – czynnościach, które uwolnią czas, który dziennikarz może wykorzystać na lepsze zbadanie tematu. Cały artykuł i tak musi być zweryfikowany i zaakceptowany przez dziennikarza – tłumaczy Agnieszka Dygasiewicz-Piwko. Wskazuje również na interesujący trend: – Wydawcy na świecie uruchamiają własne czaty oparte o AI, są one wyższej jakości niż otwarte narzędzia, bo opierają się na treściach wyprodukowanych w redakcjach, przez prawdziwych dziennikarzy. Odpowiadają one na pytania, skracają artykuły czy podsumowują dzień.
Przedstawicielka Ringier Axel Springer przywołuje też ważny kontekst społeczny, cytując Jowitę Michalską, CEO Digital University: „Badania Microsoft i University of London pokazują, że ciągłe powiadomienia cyfrowe mogą obniżyć efektywne IQ człowieka w danym momencie nawet o 10-15 punktów, co jest równowartością braku nocnego snu. W środowisku nasyconym AI rozproszenie narasta znacznie szybciej niż produktywność i wszyscy to czujemy”.
– Przewaga konkurencyjna firm może zależeć od tego, jak dobrze liderzy chronią swoją uwagę – dodaje Agnieszka Dygasiewicz-Piwko. – Okazuje się, że nie tylko umiejętność zastosowania AI w organizacji będzie dawała przewagę.
Człowiek w centrum
Z webinaru PBC wyłania się jasny wniosek: sztuczna inteligencja to potężne narzędzie, ale nie zamiennik dziennikarza. Może wspierać pracę redakcji, przyspieszać rutynowe czynności, pomagać w analizie danych. Nie zastąpi jednak ludzkiego osądu, znajomości kontekstu, odpowiedzialności za słowo.
W dobie, gdy niemal połowa odpowiedzi AI zawiera błędy, wartość rzetelnego dziennikarstwa rośnie. Transparentność, sygnowanie tekstów nazwiskami, procedury redakcyjne, lokalne zakorzenienie – to cechy, których algorytmy nie naśladują.
Dla marek prasowych – często będących źródłami odpowiedzi dla AI – kluczowe jest utrzymywanie wysokiej reputacji i wiarygodności, kierowanie odbiorców bezpośrednio do swoich treści, pokazywanie, że za nimi stoi tradycja, profesjonalizm oraz ciężka praca.
Według raportu Digital News Report Instytutu Reutersa z 2025 roku tylko 7% wszystkich odbiorców wiadomości online intencjonalnie korzysta z asystentów AI. Wśród osób poniżej 25. roku życia odsetek ten wzrasta do 15%. To wciąż niewielkie liczby, ale trend jest wyraźny.
Pytanie brzmi: czy w obliczu systemowych problemów z jakością odpowiedzi AI ludzie będą wracać do sprawdzonych źródeł? Czy zaufanie do tradycyjnych mediów – podważane przez błędne streszczenia generowane przez algorytmy – przetrwa?
Odpowiedź na te pytania będzie kształtować przyszłość mediów w nadchodzących latach. Jedno jest pewne: w tej rywalizacji między maszyną a człowiekiem stawką jest samo zaufanie publiczne – fundament demokracji.
oprac. DARIUSZ MATEREK
Artykuł powstał na podstawie webinaru „Prasa się liczy. Trendy 2025/2026” zorganizowanego przez Polskie Badania Czytelnictwa w dniu 13 stycznia 2026 roku.