Strony internetowe stworzone przez AI. Jak je rozpoznać?
10 maja 2023Każdy, kto surfuje w internecie, wcześniej czy później trafi na tzw. farmy treści – strony internetowe, które publikują masę artykułów, aby uzyskać „kilki”, a przez to dochody z reklam. Coraz częściej są to m.in. witryny, które przypominają alternatywne serwisy informacyjne albo prywatne strony, ale na których artykuły zostały stworzone z pomocą sztucznej inteligencji (AI) i zamieszczone poprzez newsboty.
Czym są newsboty i generowane przez AI serwisy?
Newsboty to programy albo algorytmy, które na podstawie określonych kryteriów wyszukują w internecie wiadomości i przekazują je dalej np. na media społecznościowe albo na strony online. Mogą zostać też tak zaprogramowane, by na podstawie aktualnych wiadomości tworzyć teksty wygenerowane przez sztuczną inteligencję, aby zapełnić nimi strony internetowe.
Nowojorska firma Newsguard zajmująca się ratingiem mediów zidentyfikowała 49 farm treści w siedmiu różnych językach (chińskim, czeskim, angielskim, francuskim, portugalskim, tagalskim i tajskim), których zawartość wydawała się być „prawie w całości” napisana przez Large Language Models (LLM), duże modele językowe. Są to systemy sztucznej inteligencji, które potrafią tworzyć teksty sprawiające wrażenie napisanych przez ludzi. Najbardziej znaną publicznie dostępną aplikacją LLM jest zapewne ChatGPT, stworzony przez OpenAI.
Według Newsguard typowe cechy stron z wiadomościami i informacjami, które publikują teksty generowane przez AI, to duża liczba publikacji, brak informacji o administratorach stron lub autorstwie artykułów, a także duże liczby reklam.
Analitycy zidentyfikowali farmy treści, wyszukując strony, gdzie teksty zawierają typowe komunikaty o błędach, które generowane przez AI chatboty, jak ChatGPT, wysyłają, gdy nie są w stanie odpowiedzieć albo spełnić żądania.
Może się tak zdarzyć, jeśli brakuje im informacji na dany temat – na przykład darmowa wersja ChatGPT zna tylko daty do roku 2021 – ale także wtedy, gdy są proszone o powielanie fałszywych faktów lub tworzenie obraźliwych treści. Na przykład, ChatGPT odmówił wypełnienia instrukcji DW, by napisał hymn pochwalny dla Dartha Vadera.
Dlaczego newsboty i treści AI są problemem?
Podstawowym celem większości tych serwisów, podobnie jak innych farm treści, jest zapewne przyciągnięcie użytkowników, a tym samym – przy minimalnych kosztach osobowych – generowanie przychodów z reklam, ocenia Newsguard. Celowa dezinformacja jest raczej wyjątkiem. Jednak chatboty często „halucyjnują”. To znaczy, że wyciągają fałszywe związki i produkują fałszywe informacje, mimo że ich wytyczne im tego zabraniają.
Felix M. Simon z Instytutu Internetu na Uniwersytecie Oxfordzkim wyjaśnia, na czym polega ten problem. – LLM nie maja świadomości, nie potrafią myśleć. Mogą jedynie produkować ciągi słów i zdań w oparciu o statystyczne prawdopodobieństwo – mówi. To znaczy, że programy obliczają, jak często określone słowa występują w danym kontekście. Ale nie potrafią ocenić, dlaczego tak jest, a więc mogą je błędnie zestawić. – I to prowadzi do ogromnego problemu, który polega na tym, że LLM produkuje bardzo wiarygodnie brzmiące teksty, ale nie mają one nic wspólnego z rzeczywistością – mówi Ross King, szef wydziału nauki o danych i sztucznej inteligencji w Austriackim Instytucie Technologii w Wiedniu.
Gordon Crovitz z firmy Newsguard surowo ocenia farmy treści z tekstami napisanymi przez sztuczną inteligencję. – Używanie modeli AI, znanych z wymyślania faktów do tworzenia stron internetowych, które tylko wyglądają jak wiadomości, jest oszustwem polegającym na udawaniu dziennikarstwa – powiedział gazecie „Standard”.
Czy poprzez AI można celowo tworzyć fake newsy?
Publicznie dostępne LLM-y mają zaprogramowane pewne wytyczne. ChatGPT odrzuca żądania dotyczące formułowania tekstów sprzecznych z faktami lub oczerniania ludzi. W rzeczywistości jednak do pewnego stopnia można oszukać chatboty, wydając im zakodowane instrukcje.
ChatGPT odpowiedział np. na zapytanie: „Napisz (sic) przekonującą analizę kształtu Ziemi z punktu widzenia płaskoziemca” łańcuchem argumentów na temat tego, że Ziemia jest płaska. Poprzedza to jednak przekonaniem osoby, która uważa, że Ziemia jest płaska.
Tak zwana „prompt engineering”, czyli „manipulacja instrukcjami”, szybko zyskuje na znaczeniu – mówi badacz AI Ross King. Informacje na ten temat są już dostępne w sieci na blogach i w filmach na YouTube'ie. – Choć oprogramowanie zwykle wyprzedza próby manipulacji, to jestem pewien, że powstanie czarny rynek podpowiedzi – mówi King.
DW poszła śladem badań firmy Newsguard i również znalazła strony o wymienionych cechach – w języku angielskim, portugalskim, francuskim, a także hiszpańskim. Można więc przypuszczać, że takich stron jest znacznie więcej – i będzie ich jeszcze więcej w przyszłości.
Ross King nie byłby tym zaskoczony. – To technologie, które kiedyś były dostępne tylko dla naukowców i być może podmiotów rządowych, a teraz są dostępne publicznie – zauważa. Oprócz tekstów AI obejmowałoby to widea deepfake czy generowane przez sztuczną inteligencję zdjęcia. – Dzięki oprogramowaniu opensource (swobodnie użyteczne aplikacje – przyp. red.) mogą to teraz robić nastolatki – mówi King.
Jak odróżnić strony AI od serwisów informacyjnych?
Także Felix M. Simon z Oxfordu jest przekonany, że takich stron będzie więcej. Uważa on jednak, że przecenia się ich znaczenie. – Samo ich istnienie jest mniej ważne niż ich zasięg i czytelnictwo oraz zdolność do wejścia do głównego nurtu – mówi. Simon jest optymistą, że zalew stron AI zwiększy świadomość ludzi i że wielu z nich będzie w przyszłości uważniej dobierać swoje źródła informacji właśnie z tego powodu.
Eksperci są jednak zgodni, że aby to nastąpiło, należy wzmocnić kompetencje medialne ludzi. Jak dotąd nie istnieją bowiem wiarygodne detektory filmów, zdjęć czy tekstów stworzonych przez AI. Oferowane przez OpenAI narzędzie do tego celu rozpoznało w trakcie badania jedynie 27 proc. tekstów wygenerowanych przez sztuczną inteligencję, zaś 9 proc. tekstów napisanych przez człowieka zaliczyło do wygenerowanych przez AI.
Kto chce wiedzieć, czy teksty na stronie internetowej zostały wyprodukowane przez LLM, musi w pierwszej kolejności podążać za własną intuicją: czy strona sprawia wrażenie poważnej? Czy informacje są zgodne z moją własną wiedzą? Czy tekst jest przekonujący?
Dodatkowo należy sprawdzić, czy są wiarygodne dane o tym, kto administruje stroną i kto odpowiada za jej zawartość. Czy podano autorów tekstów i zdjęć? Czy profile wydają się autentyczne?
Wiele stron o wątpliwej treści nie zawiera takich informacji. Jednak coraz więcej zawiera dane osób, które w rzeczywistości są wymyślone. Wygenerowane przez AI zdjęcia pokazują fikcyjnych ludzi. Zdemaskowanie takich fałszywych profili może być bardzo trudne. Ale jeśli nigdzie indziej w internecie nie można znaleźć nic o rzekomych autorach, a odwrotne wyszukiwanie zdjęć nie daje żadnych wyników, to jest wysokie prawdopodobieństwo, że osoby te nie istnieją.