cykliczne porady dla sprzedawców, opinie ekspertów

Media w cieniu AI

W ostatniej dekadzie liczba reporterów w Stanach Zjednoczonych zmniejszyła się o 40 procent, co jasno pokazuje, jak głęboko zmiany technologiczne wpływają na media. Sztuczna inteligencja stała się zarówno szansą, jak i zagrożeniem dla dziennikarstwa, jakie znaliśmy dotychczas. Według raportu Uniwersytetu Oksfordzkiego, prawdopodobieństwo automatyzacji zawodów dziennikarskich wynosi 11 procent. Dla prasy oznacza to konieczność adaptacji do nowej rzeczywistości.

il. Katarzyna Ryczek przy pomocy Copilot

W związku z upowszechnieniem sztucznej inteligencji udział zadań wykonywanych wyłącznie przez człowieka skurczy się z obecnych 47 proc. do 33 proc. do 2030 roku – podkreślono w raporcie Uniwersytetu SWPS „FUTUREPROOF 2.0. Navigating Uncertainty. Creating Impact”, przygotowanym na kongres biznesowo-technologiczny Impact’25, który odbył się w dniach 14-15 maja br. w Poznaniu.

– W perspektywie 5-10 lat około 60 proc. zatrudnionych będzie korzystało z tzw. pracy poszerzonej, czyli współpracy człowieka ze sztuczną inteligencją w różnych jej postaciach. Zamiast straszyć technologią, powinniśmy przygotować pracowników na tę właśnie współpracę – komentuje dr Michał Boni z Zakładu Społecznych Zastosowań Nowych Technologii SWPS.

Strach czy fascynacja?

Jak wynika z raportu FUTUREPROOF 2.0., wskaźnik adopcji AI w Polsce wynosi 5,9 proc., co plasuje nasz kraj na przedostatnim miejscu w Unii Europejskiej (średnia dla UE to 13,5 proc.). Polski biznes stoi więc przed koniecznością nadrobienia dystansu technologicznego – zaznaczono. I nie ma przed tym ucieczki. Bez względu na opinię na temat AI sztuczna inteligencja po prostu wchodzi w nasze życie – tak prywatne, jak i zawodowe.

Według płk. Dr. inż. Rafała Kasprzyka z Wojskowej Akademii Technicznej ewolucja algorytmów sztucznej inteligencji odbywa się w tempie wykładniczym. –  Z jej klasyfikacją jest tak, jakbyśmy próbowali malować mapę kontynentu, którego jeszcze nie odkryliśmy. Co więcej, nie zdajemy sobie sprawy, że może są inne kontynenty – mówi badacz. Dzieli AI na dwa typy. Pierwszy to taki, którego uczy ekspert – człowiek rozumiejący maszynę i przelewający jej „do głowy” znane sobie reguły. Drugi natomiast to system, który nie potrzebuje człowieka, żeby się uczyć, bo sam korzysta z dostarczonych mu danych. Tak powstaje Software 2.0, który współcześnie znajduje coraz ciekawsze zastosowania, i który w różnych obszarach radzi sobie dużo lepiej niż człowiek.

– Problem w tym, że nie do końca rozumiemy reguły postępowania tej maszyny. Oczywiście, ponieważ umiemy je budować, rozumiemy algorytm. Możemy się domyślać, ale nie jesteśmy w stanie odpowiedzieć ze stuprocentową pewnością, jaką decyzję podejmie maszyna tak wytrenowana, i jakie reguły stały właśnie za tą decyzją – przyznaje płk dr inż. Kasprzyk. Jak zastrzega, jest wiele obszarów – w szczególności wojsko – gdzie nie można swobodnie wykorzystywać maszyn, o których nie jest wiadomo, na jakich zasadach działają.

Algorytmy sztucznej inteligencji potrafią już analizować zachowania użytkowników, weryfikować fakty poprzez porównywanie informacji z wielu źródeł, a także optymalizować strategie marketingowe. Jednocześnie jednak wzrasta ryzyko dezinformacji, m.in. poprzez hiperpersonalizację treści, która może prowadzić do zamknięcia się w „bańkach informacyjnych” – sytuacji, gdy odbiorcy otrzymują wyłącznie treści zgodne z ich poglądami. Sztuczna inteligencja jest również wykorzystywana dość powszechnie przez hakerów, którzy szybko odkryli nowe możliwości.

Otwartym pozostaje cały czas pytanie, czy nasza realna rzeczywistość (w tym także tradycyjne media), jest gotowa na spotkanie z nowym światem, który na razie wydaje się w równym stopniu fascynujący, co przerażający.

Prasa stawia na partnerstwo

Sztuczna inteligencja wkroczyła do tradycyjnych redakcji prasowych z siłą, która zmienia fundamenty zawodu dziennikarskiego. Automatyzacja procesów redakcyjnych przestała być futurystyczną wizją – dziś stanowi codzienną rzeczywistość dla wielu gazet i czasopism.

Wsparcie AI w redakcjach prasowych przybiera różnorodne formy, odciążając dziennikarzy od zadań powtarzalnych i czasochłonnych. Według raportu Dziennikarstwo AI z London School of Economics, aż 85% organizacji informacyjnych eksperymentuje z narzędziami sztucznej inteligencji. Narzędzia te wspierają redakcje w podsumowywaniu artykułów, generowaniu nagłówków i automatyzacji rekomendacji treści.

W praktyce dziennikarze przyznają, że AI pomaga im w codziennej pracy na wiele sposobów. Przede wszystkim, transkrypcja wywiadów – zamiana nagrań audio na tekst – stała się jednym z najbardziej cenionych zastosowań. Jak wskazują dziennikarze w rozmowach, sztuczna inteligencja „potrafi dokonać transkrypcji wszystkich rozmów, przypisać wypowiedzi do różnych rozmówców, a na koniec dać w punktach podsumowanie wskazanych obszarów”.

Ponadto AI pomaga w: streszczaniu długich tekstów i depesz prasowych, porządkowaniu i uszczegółowianiu pytań do rozmówców, tłumaczeniu tekstów z języków obcych, edycji i korekcie tekstów, optymalizacji pod kątem SEO.

„New York Times” wprowadził wewnętrzne narzędzie AI o nazwie Echo, które pomaga redaktorom w tworzeniu streszczeń artykułów, sugerowaniu nagłówków i generowaniu treści promocyjnych do mediów społecznościowych. Narzędzie to nie zastępuje dziennikarzy, lecz pozwala im skupić się na dziennikarstwie śledczym i głębszej analizie. Podobne rozwiązania pojawiają się już w polskich redakcjach.

– Nasze zespoły redakcyjne wspieramy narzędziami bazującymi na AI, na przykład BauerGPT z gotowymi agentami dostosowanymi do potrzeb różnych ról biorących udział w procesie powstawania treści redakcyjnych. Nie konkurujemy jednak bezpośrednio z mediami cyfrowymi, ponieważ nasze treści nie będą nigdy tak aktualne, jak te, które publikują media cyfrowe. Są za to bardziej pogłębione i dopracowane – również dzięki narzędziom wspieranym przez sztuczną inteligencję – mówi Zbigniew Bański, Dyrektor ds. Rozwoju i Wdrożeń w Wydawnictwie Bauer.

– Wraz z rosnącą ilością powtarzalnych, powierzchownych treści publikowanych w sieci, zwiększa się zapotrzebowanie na wiarygodne, zweryfikowane informacje tworzone przez ludzi – także we współpracy z AI. Czytelnicy szukają źródeł, którym mogą ufać, a redakcje, które potrafią pokazać transparentny proces twórczy, zyskują przewagę. W „hAI Magazine” staramy się to właśnie realizować – nie tylko piszemy o AI, ale współtworzymy z nią. Łączymy nasze kompetencje dziennikarskie z możliwościami technologii, nie zapominając o współpracy Human+AI, czyli partnerstwie, w którym to człowiek zawsze podejmuje ostateczne decyzje – komentuje Kamil Świdziński, Community Programs Team Lead | Head of „hAI Magazine”.

Złe boty atakują

Powszechna dostępność do sztucznej inteligencji ma też niestety swoje ciemne strony. Wzrost liczby dostępnych narzędzi AI znacznie obniżył barierę wejścia dla cyberatakujących, umożliwiając im tworzenie i wdrażanie złośliwych botów (czyli specjalnych programów komputerowych zaprojektowany do automatycznego wykonywania określonych zadań) na dużą skalę. Dzięki generatywnej AI rozwój botów stał się prostszy, a zautomatyzowane zagrożenia szybko ewoluują, stając się coraz bardziej wyrafinowane i powszechne, co napędza wzrost zarówno prostych, jak i zaawansowanych złych botów.

Atakujący teraz używają AI nie tylko do generowania botów, ale także do analizy nieudanych prób i udoskonalania swoich technik, aby z większą efektywnością omijać systemy bezpieczeństwa. Według raportu Imperva „2025 Bad Bot Report”, po raz pierwszy od dekady, zautomatyzowany ruch przewyższył aktywność ludzką, stanowiąc 51% całego ruchu w sieci w 2024 roku. Było to w dużej mierze spowodowane szybkim przyjęciem AI i dużych modeli językowych (LLM), które uczyniły tworzenie botów bardziej dostępnym i skalowalnym. W tym samym czasie aktywność złych botów wzrosła po raz szósty z rzędu, a złośliwe boty stanowią teraz 37% całego ruchu w internecie, co stanowi wyraźny wzrost z 32% w 2023 roku.

Do cyberataków dochodzi cały czas obecna i rozpleniająca się jak perz dezinformacja. Fałszywe informacje rozprzestrzeniają się w internecie sześciokrotnie szybciej niż prawdziwe – to alarmujący wniosek z badań Massachusetts Institute of Technology. W erze cyfrowej dezinformacja stała się jednym z największych wyzwań dla mediów tradycyjnych, których autorytet i wiarygodność są coraz częściej podważane przez fake newsy. Według raportu organizacji Freedom House, narzędzia oparte na sztucznej inteligencji były wykorzystywane w celach dezinformacyjnych w co najmniej 16 krajach. To poważne wyzwanie dla wszystkich mediów, nie tylko prasy.

– Niezależnie od rozwoju generatywnej sztucznej inteligencji, rolą dziennikarzy i dziennikarek jest zawsze weryfikowanie pozyskanych informacji lub tych, które są publikowane przez inne media. Nieoceniona wiedza i doświadczenie osób pracujących dla wydawnictw jest i będzie w dalszym ciągu istotna, a myślenie krytyczne – zwłaszcza przy szeroko dostępnych syntetycznych treściach – jest dziś szalenie istotne. Wierzę jednak, że popularyzacja rozwiązań opartych na generatywnej sztucznej inteligencji, może ten proces przyspieszyć. Z mojego doświadczenia wynika, że redakcje coraz częściej korzystają z AI we wstępnej weryfikacji informacji, analizie źródła, porównaniu różnych wersji treści, czy wykrywaniu wzorców dezinformacji. Tego typu narzędziami mogą być rozwiązania z funkcją wyszukiwania, głębokiego researchu czy analizy odpowiednich źródeł – mówi Kamil Świdziński z „hAI Magazine”. –  W CampusAI wierzymy również, że dziś bardzo ważna jest edukacja, zrozumienie czym jest sztuczna inteligencja, jakie są jej korzyści, a także ograniczenia. To jednak nie wszystko. Media w swoich newsroomach muszą zadbać również o aktualizację procedur korzystania z fact-checkingu, dodając nowe metody czy możliwości płynących z narzędzi AI – dodaje.

– To może dziwić, ale treści generowane przez boty nie stanowią w przypadku „Świata Wiedzy” problemu. Nie wprowadziliśmy żadnych dodatkowych zabezpieczeń – wystarczy, że po prostu dobrze wykonujemy swoją pracę. Robimy to samo od lat: przeprowadzamy dogłębny research, sprawdzamy informacje zawsze w kilku wiarygodnych źródłach. Ryzyko opublikowania zmyślonej przez sztuczną inteligencję informacji jest dzięki temu w naszym przypadku bliskie zeru. I choć zdaję sobie sprawę, że w przypadku „szybszych”, goniących za newsami mediów sytuacja jest trudniejsza, zachowywanie tych samych zasad „higieny pracy” także pozwala uniknąć wpadek – wyjaśnia Adam Szumilak, redaktor naczelny magazynów: „Świat Wiedzy”, „Świat Wiedzy Historia”, „Świat Wiedzy Kosmos”, „Świat Wiedzy: Sekrety Medycyny” (Wydawnictwo Bauer).

Dylematy nie tylko etyczne

Zawód dziennikarza przechodzi fundamentalną transformację w obliczu rosnącego wpływu sztucznej inteligencji. W przeciwieństwie do obaw o całkowite zastąpienie ludzi AI staje się raczej asystentem, który zmienia charakter pracy w redakcjach prasowych.

Dziennikarze, aby skutecznie wykorzystywać AI, muszą przestrzegać dwóch kluczowych zasad. Po pierwsze, nie mogą w pełni ufać informacjom dostarczanym przez AI i za każdym razem muszą je weryfikować. Po drugie, istnieje bezwzględny obowiązek informowania czytelników o korzystaniu z pomocy AI.

Wykorzystanie sztucznej inteligencji w prasie i mediach tradycyjnych rodzi poważne pytania etyczne, których nie można ignorować. W miarę jak AI staje się coraz powszechniejszym narzędziem, wydawcy i dziennikarze muszą zmierzyć się z nowymi dylematami dotyczącymi transparentności i ochrony prywatności. Jakie strategie stosują redakcje, by zachować wiarygodność i zaufanie w erze AI? Czy redakcje obawiają się utraty czytelników na rzecz treści generowanych automatycznie? Jakie wyzwania etyczne i prawne wiążą się z wykorzystaniem sztucznej inteligencji w redakcjach?

– Zamiast obawiać się konkurencji ze strony AI, redakcje powinny – i coraz częściej to robią – redefiniować swoją wartość w świecie, gdzie treści syntetyczne są powszechnie dostępne. Ważne jest, by zrozumieć, że treści generowane przez modele językowe nie są całkowicie automatyczne – za każdym z nich stoi człowiek, jego intencja i sposób zadania pytania. Prompty determinują kształt odpowiedzi, a jakość treści zależy w dużej mierze od wiedzy i świadomości osoby, która z AI współpracuje – przekonuje Kamil Świdziński z „hAI Magazine”. – Każda redakcja podchodzi do swojego DNA w różny sposób, dostosowując się do czytelnika i swoich przekonań. Wiem jednak, że strategia dotycząca zaufania w erze AI jest dziś bardzo ważna. A co może wpłynąć na tę strategię? W mojej ocenie jest to przede wszystkim polityka transparentności. Każdy tekst w publikacji powinien zawierać stosowną informację, jeśli był w pełni tworzony lub współtworzony przez AI. Dobrym zwyczajem jest poinformować czytelnika, jakie konkretne narzędzia AI były używane. Najważniejsze jest jednak, aby redaktor i redaktorka weryfikowali treści generowane przez sztuczną inteligencję. Zawsze dbali o zasadę ograniczonego zaufania i weryfikowali w sprawdzonych źródłach. Na zakończenie warto podkreślić równie istotny aspekt – edukację nie tylko osób zawodowo związanych z pracą redakcyjną, lecz również samych odbiorców. Jednym z kluczowych zadań dziennikarzy i dziennikarek jest uświadamianie społeczeństwa na temat potencjalnych skutków publikowania treści syntetycznych, tworzonych bez udziału człowieka i pozbawionych tzw. ludzkiego filtra – zauważa Kamil Świdziński.

– Stawiamy na jakość naszych artykułów i na pogłębione treści. Dzięki zasadzie, że na początku i na końcu procesu redakcyjnego zawsze musi być obecny redaktor, mamy gwarancję, że najważniejszych decyzji nigdy nie podejmuje za naszych redaktorów sztuczna inteligencja. Istnieją regulacje prawne i kodeksy dobrych praktyk. Mamy również swoje wewnętrzne zasady, które pomagają w bezpiecznym nawigowaniu w meandrach AI. Wychodzimy z założenia, że korzystanie z AI w prasie jest dozwolone, ale musi spełniać: wymogi przejrzystości (oznaczanie treści jako wygenerowanych przez AI), etyki dziennikarskiej (rzetelność, weryfikacja), prawa ochrony danych (RODO) oraz przyszłe regulacje wynikające z AI Act, które opracowała Unia Europejska. Powtórzę raz jeszcze, że dzięki zasadzie, że na początku i na końcu procesu redakcyjnego zawsze musi być obecny redaktor, mamy gwarancję, że najważniejszych decyzji nigdy nie podejmuje za naszych redaktorów sztuczna inteligencja – zapewnia Zbigniew Bański, dyrektor ds. rozwoju i wdrożeń w Wydawnictwie Bauer.

– Aby zdobyć i utrzymać zaufanie Czytelników w erze AI, nasze pisma muszą wyróżniać się wysoką jakością oraz wiarygodnością. Ale już wcześniej to właśnie tymi aspektami konkurowaliśmy z mediami online. Ten zalew generowanych przez sztuczną inteligencję treści jest dla nas – paradoksalnie – korzystny. Jeszcze bardziej uwypukla bowiem różnicę pomiędzy darmowymi artykułami dostępnymi online a dopracowanymi, zweryfikowanymi przez ekspertów publikacjami takich magazynów jak „Świat Wiedzy” czy „Świat Wiedzy Historia” – mówi Adam Szumilak, redaktor naczelny magazynów: „Świat Wiedzy”, „Świat Wiedzy Historia”, „Świat Wiedzy Kosmos”, „Świat Wiedzy: Sekrety Medycyny”. –  Oczywiście nie znaczy to, że uważamy, iż z narzędzi generatywnej sztucznej inteligencji nie należy korzystać. Przeciwnie, sami też to robimy – ale nie do pisania artykułów, a jedynie do pomocy w różnych pracach redakcyjnych. Traktujemy AI – choćby w formie stworzonego w obrębie naszego wydawnictwa narzędzia BauerGPT – jako kompana do burzy mózgów, wsparcie przy wymyślaniu tytułów albo poszukiwaniu tematów czy asystenta ułatwiającego przełamanie blokady twórczej – dodaje.

Co nas czeka?

Eksperci przewidują, że przyszłość przyniesie „dziennikarstwo hybrydowe”, gdzie część zadań przejmą algorytmy, ale rola człowieka w tworzeniu pogłębionych treści wciąż będzie kluczowa. Dziennikarz musi posiadać nowe kompetencje, takie jak umiejętność krytycznego myślenia, łączenia faktów i wyciągania wniosków.

AI staje się cennym sojusznikiem dziennikarzy, zmieniając ich role z prostych twórców treści w kierunku bardziej wyspecjalizowanych analityków i interpretatorów informacji. Jednakże, jak podkreśla jeden z ekspertów: „Największa przewaga człowieka nad AI jest tam, gdzie mamy do czynienia z wytworem unikalnym, mocno chronionym. Mowa o dziennikarstwie jakościowym, śledczym, nie o tzw. newsach, które algorytm jest w stanie samodzielnie wytworzyć”.

Europejskie organizacje zrzeszające dziennikarzy i wydawców alarmują o niepokojącym zjawisku „pasożytowania” na prasie przez systemy AI. Kiedy generatywna sztuczna inteligencja wykorzystuje materiały dziennikarskie i redakcyjne do tworzenia – bez pozwolenia lub wynagrodzenia – podobnych treści przy minimalnych kosztach i bez nadzoru redakcyjnego, tracą wszyscy. Izba Wydawców Prasy w Polsce już ponad rok temu proponowała wprowadzenie przepisów o płaceniu za wykorzystywanie treści przez narzędzia sztucznej inteligencji. Jednakże takie zapisy nie znalazły się w nowelizacji prawa autorskiego.

– Prawdą jest, że „wymyślanie koła na nowo” to działanie syzyfowe, ale już adaptowanie nowych narzędzi do znanych formatów – to świadoma strategia rozwoju. Takie podejście obserwuję coraz częściej wśród tradycyjnych wydawców, którzy sięgają po rozwiązania technologiczne, by wzmocnić swoją pozycję na rynku.  Fałszywa pozostaje natomiast narracja, że papier umiera. Według raportu Badania Polskiego Czytelnictwa, w ubiegłym roku rozdystrybuowano ponad 281 milionów egzemplarzy prasy, z czego aż 94% stanowiły wydania płatne – osiągając przy tym ok. 1 mld zł przychodu. To wyraźny sygnał, że druk nie tylko trwa, ale nadal generuje wartość – także biznesową. Wydawcy coraz częściej stawiają na model hybrydowy, łącząc wersje papierowe z aktywną obecnością online. Oba kanały – analogowy i cyfrowy – mogą się wzajemnie wzmacniać, tworząc silniejsze relacje z czytelnikami – stwierdza Kamil Świdziński z „hAI Magazine”. I dodaje:  – Wydawnictwa drukowane wdrażają technologie, aby nie tylko konkurować, ale też współistnieć z mediami cyfrowymi. Sztuczna inteligencja ma w tym procesie coraz większe znaczenie. AI wspiera redakcje w wielu obszarach: od researchu, przez tworzenie elementów graficznych i wsparcie edytorskie, aż po analizę danych i budowanie strategii wydawniczych. Te narzędzia nie są zarezerwowane wyłącznie dla portali online – mogą z powodzeniem służyć również redakcjom tradycyjnym.

KINGA SZYMKIEWICZ

DARIUSZ MATEREK