Czy można ufać sztucznej inteligencji? Ostrożność w Davos
18 stycznia 2024Zamieszanie wokół sztucznej inteligencji jest wyczuwalne na promenadzie w Davos, gdzie na wielu budynkach wiszą plakaty wychwalające jej zalety. Jest też cały pawilon poświęcony tej technologii. Nazywa się on trafnie AI House (Dom SI, AI to skrót od artificial inteligency, czyli sztuczna inteligencja, w skrócie SI – przyp.) i jest jednym z najczęściej wyszukiwanych adresów na tegorocznym Światowym Forum Ekonomicznym (World Economic Forum, WEF). Tymczasem liderzy biznesu debatują nad zagrożeniami związanymi z SI i możliwościami, które ona oferuje, a także zastanawiają się, w jaki sposób efektywnie wykorzystać tę technologię.
W odniesieniu do możliwości, jakie SI obiecuje w dziedzinach takich jak opieka zdrowotna i edukacja, przeważa poczucie optymizmu. Jednak ten entuzjazm jest często uzupełniany zastrzeżeniem „SI, jeśli zrobiona odpowiedzialnie” lub studzony słowami „ale powinniśmy być ostrożni”.
Światowe Forum Ekonomiczne w swoim dorocznym badaniu globalnych zagrożeń „The Global Risk Report 2024” ocenia napędzane przez SI wprowadzanie w błąd i dezinformację jako największe groźby najbliższych dwóch lat. W badaniu stwierdzono, że w tym roku, kiedy ponad 2 miliardy ludzi pójdzie do urn wyborczych w krajach takich jak USA i Indie „w centrum uwagi znajdą się powiązania między sfałszowanymi informacjami a niepokojami społecznymi”.
Międzynarodowy Fundusz Walutowy (MFW) ostrzegł, że rewolucja technologiczna będzie mieć wpływ na niemal 40 procent miejsc pracy w skali globalnej, w tym także na stanowiska wymagające wysokich kwalifikacji. W gospodarkach rozwiniętych może to być nawet 60 procent.
Podczas gdy gospodarki wschodzące i rozwijające się mogą być mniej narażone na wstrząsy spowodowane bezpośrednio przez SI, MFW ostrzega, że wiele z tych krajów będzie miało trudności z wykorzystaniem korzyści, które SI przynosi, z powodu braku infrastruktury i wykwalifikowanych pracowników, a to zwiększa ryzyko, że z czasem SI może pogłębić nierówności między państwami.
– W większości scenariuszy SI prawdopodobnie zwiększy powszechne nierówności, co będzie niepokojącym trendem, którym decydenci będą musieli się zająć aktywnie, żeby uchronić tę technologię przed dalszym narastaniem napięć społecznych – powiedziała szefowa MFW Kristalina Georgiewa na rozpoczęcie dorocznego spotkania WEF.
Mnogość zagrożeń towarzyszy rozwojowi SI
Do największych obaw związanych z SI należą jakość danych zasilających jej różne modele oraz sposób, w jaki technologia doprowadziła do narastania wysokiej jakości manipulacji, takich jak tworzone przy stosunkowo niskich kosztach dipfejki (z angielskiego deepfake, fotografie zmanipulowane przy pomocy SI poprzez nałożenie wizerunków osób na inne zdjęcia w sposób tak doskonały, że widz nie jest w stanie wykryć oszustwa – przyp.).
Krytycy mówią, że spółki zajmujące się twórczą SI nie były transparentne co do źródła danych zasilających ich wielkie modele językowe, takie jak ChatGPT, co prowadzi do obaw o wiarygodność danych, z których korzystano. – Czy wzięli dane z 4chan? (4chan to kontrowersyjna strona znana z koordynowania ataków nękania, a także rozpowszechniania nielegalnych i obraźliwych treści – przyp.) A może wzięli dane z pewnej części Reddita? – pyta DW James Landay, profesor informatyki na Uniwersytecie Stanforda (Reddit to serwis zawierający linki do informacji na innych stronach w Internecie – przyp.).
– Można tylko przypuszczać. Wiemy, że prezentują głównie perspektywę zachodnią. Wartości kulturowe zawarte w tych danych nie są odpowiednie dla innych kultur. To niemal forma imperializmu – twierdzi.
Landay, który specjalizuje się w interakcji człowiek-komputer, wskazuje na potrójne zagrożenia stwarzane przez modele SI: dezinformacja, dipfejki i dyskryminacja.
Wsparcie dla SI
Pomimo swoich obecnych braków SI jest reklamowana jako najważniejszy game changer, główny czynnik przełomu w branży. Liderzy technologiczni zachwycali się tym, jak technologia ta doprowadziła do wielkiego skoku produktywności.
Nigel Vaz, dyrektor generalny spółki Publicis Sapient, cyfrowego ramienia francuskiej agencji reklamowej Publicis, uważa, że SI doprowadziła do 30-40-procentowego wzrostu wydajności w rozwoju oprogramowania. – Pozwala im [programistom] bardziej skupiać się nie tyle na generowaniu kodu, co na rzeczywistym procesie twórczym – powiedział podczas dyskusji panelowej.
Eksperci podkreślają również potencjalne korzyści, które obiecuje SI, zwłaszcza w takich dziedzinach jak edukacja, w której dzieci z ograniczonym dostępem do szkół mogłyby pewnego dnia uzyskać dostęp do osobistych nauczycieli lub korepetytorów, oraz opieka zdrowotna, w której technologia już teraz pomaga poprawiać jakość opieki nad pacjentami.
Przewodnicząca Komisji Europejskiej Ursula von der Leyen, zdeklarowana optymistka technologiczna, zgadza się z tą opinią. – SI może zwiększyć produktywność w bezprecedensowym tempie – powiedziała tłumowi słuchaczy w Davos. – Europa musi podnieść poprzeczkę i wskazać drogę do odpowiedzialnego korzystania z SI. Chodzi o taką sztuczną inteligencję, która wzmacnia ludzkie zdolności, poprawia produktywność i służy społeczeństwu – wyjaśniła.
Zamieszanie, które towarzyszyło twórczej SI w zeszłym roku, może nieco zelżeć w tym roku, ponieważ firmy zmagają się z rzeczywistymi, praktycznymi przypadkami użycia tej technologii i niepewnością co do przepisów dotyczących jej stosowania, mówi Alexandra Mousavizadeh, szefowa platformy Evident specjalizującej się w benchmarkingu (porównywaniu z najlepszymi – przyp.) i śledzeniu wdrażania SI w sektorze bankowym.
– Panuje ogromne zamieszanie i prowadzone są poszukiwania tego, co twórcza SI może przynieść biznesowi, ale to jest niezwykle trudne do wprowadzenia – mówi Mousavizadeh w rozmowie z DW. – Dobrze rozumiemy, co mogą osiągnąć wielkie modele językowe, ale wahamy się, czy są one wystarczająco wiarygodne w takich rodzajach użytkowania, z jakimi mamy do czynienia w naszych organizacjach.
Jak odpowiedzialnie korzystać z SI?
Cały ten świergot w Davos dotyczył tego, jak ciągnąć korzyści płynące z rewolucji technologicznej, minimalizując jednocześnie ryzyko. Na przykład Ramayya Krishnan, ekspert zajmujący się na Uniwersytecie Carnegie Mellon w USA transformacją cyfrową, twierdzi, że ryzyko utraty miejsc pracy można zmniejszać monitorując w czasie rzeczywistym lokalne rynki pracy. W ten sposób można bowiem szybko zidentyfikować zmieniające się potrzeby pracodawców.
– Jest bardzo mało prawdopodobne, że SI będzie mogła wykonywać wszystkie zadania w danym zawodzie – mówi Krishnan, który jest również członkiem Narodowego Komitetu Doradczego do spraw Sztucznej Inteligencji w Departamencie Handlu USA. Jego zdaniem uzyskanie świadomości sytuacyjnej (po angielsku situational awareness, to umiejętność właściwego rozeznania się w danym otoczeniu, na przykład na polu walki – przyp.) na temat tego, co dzieje się na rynku, pomoże zidentyfikować luki w umiejętnościach, a pracownicy będą mogli zostać przekwalifikowani, żeby móc odejść z zanikających zawodów.
Jeśli chodzi o wprowadzanie w błąd i dezinformację, spółki dokładają starań, żeby lepiej informować użytkowników. Na przykład Google stworzył SynthID, narzędzie do znakowania wodnego i identyfikacji obrazów generowanych przez SI. Ale jak na razie żadna norma przemysłowa w tej dziedzinie nie istnieje.
– Wymogiem powinno być, żeby każdy model SI w trakcie tworzenia jakiejś treści miał powiązany z tym dowód pochodzenia, a wraz z nią udostępniał narzędzie, za pomocą którego można przetwarzać znak wodny lub pochodzenie tej treści, tak żeby człowiek wchodzący w interakcję z nią mógł być poinformowany, że wchodzi w interakcję z zawartością wytworzoną przez SI, albo że tak się nie dzieje – mówi Krishnan w rozmowie z DW.
Artykuł ukazał się pierwotnie na stronach Redakcji Angielskiej DW