Studium: Niewystarczające zabezpieczenia przeciw deepfejkom
26 lutego 2024Widoczne dla użytkowników oznaczenia treści wytworzonych przez sztuczną inteligencję mogą być mylące i trudne do wykrycia, a jednocześnie są one stosunkowo łatwe do usunięcia, podkreśla w opublikowanym w poniedziałek raporcie amerykańska Fundacja Mozilli (z Mountain View w Kalifornii, powołana w 2003 roku w celu wsparcia projektu Mozilla, w ramach którego rozwijane są bezpłatnie dostępne programy, takie jak internetowa przeglądarka Firefox, czy program do obsługi poczty elektronicznej Thunderbird – przyp.).
Bardziej niezawodnym rozwiązaniem są techniczne „znaki wodne”, które są automatycznie osadzane w treściach generowanych przez sztuczną inteligencję. Również i w tym wypadku istnieje jednak zastrzeżenie, że informacje te muszą najpierw zostać odczytane przez stosowne oprogramowanie na urządzeniach użytkownika i wyświetlone.
Deepfejki także na wideo
Regulacje dotyczące oznaczania treści generowanych przez SI często nie spełniają oczekiwań, ostrzega Ramak Molavi Vasse'i, badaczka z Fundacji Mozilli. W końcu tak zwane deepfejki (zmanipulowane przy pomocy SI fotografie, wideofilmy i nagrania audio w sposób tak doskonały, że ich odbiorca nie jest w stanie wykryć oszustwa – przyp.) są zwykle tworzone specjalnie w celu wprowadzenia w błąd. Jeśli branża sama nie poczyni postępów w zakresie samoregulacji, należy zwiększyć na nią presję, uważa ekspertka.
Ogólny problem polega na tym, że do obiegu wprowadzana jest technologia, która od samego początku nie ma przemyślanych i wbudowanych bezpieczników zapobiegających jej podstępnemu wykorzystaniu. Ponadto nadal mnożą się dzikie projekty wykorzystujące wiele rozmaitych procedur zamiast jednego jednolitego standardu.
Oprogramowanie SI może być wykorzystywane do generowania coraz bardziej realistycznych zdjęć na podstawie danych tekstowych. Jednak coraz częściej w ten sposób generowane są również wideofilmy. Amerykańskie laboratorium OpenAI, które stworzyło program ChatGPT, zaprezentowało niedawno swoje nowe oprogramowanie Sora służące do tworzenia treści wideo przy pomocy SI. Sygnalizujący to znacznik jest jednak mały i często trudny do zauważenia, krytykuje ekspertka Mozilli.
Audiofejk: Biden calls
Istnieją poważne obawy, że sztuczna inteligencja może zostać wykorzystana do wpłynięcia na wynik wyborów. Szczególne znaczenie może to mieć akurat w tym roku, kiedy będą i wybory prezydenckie w USA, i wybory europejskie. W Stanach Zjednoczonych, na krótko przed prawyborami Partii Demokratycznej w stanie New Hampshire, ktoś wykonał automatyczne połączenia telefoniczne, w których łudząco realistycznie przypominający sposób mówienia prezydenta Joe Bidena głos dzwoniącego wzywał wyborców, by trzymali się z dala od lokali wyborczych.
Takie audiofejki są uważane za poważny problem już choćby dlatego, że istnieje dużo mniej sposobów ich rozpoznawania na podstawie błędów czy znaczników. Zdarzały się już przypadki, w których takie nagrania były wykorzystywane do oszustw na wnuczka, kiedy to przestępcy próbują wyłudzić pieniądze rzekomo w imieniu krewnych.
(DPA/pedz)