Jak Google promuje seksistowskie klisze
8 marca 2021„Grafika Google” daje światu twarz. Gdy ktoś chce zobaczyć, jak coś lub ktoś wygląda, prawdopodobnie poszuka tego w Google. Analiza przeprowadzona przez Deutsche Welle pokazuje jednak, jak zniekształcony obraz dają algorytmy internetowego giganta. Nasi dziennikarze przyjrzeli się 20 tys. obrazów i stron.
Rezultaty są następujące. Wpisując w języku angielskim zapytania typu „ukraińskie kobiety”, „brazylijskie kobiety” albo „tajlandzkie kobiety”, częściej dostajemy zdjęcia młodych kobiet w ponętnych pozach i skąpym ubraniu, niż w przypadku zapytania „amerykańskie kobiety”. Gdy wpiszemy zaś po angielsku hasło „niemieckie kobiety”, w wynikach pojawią się głównie polityczki i sportsmenki.
Tę prawidłowość widać gołym okiem, wystarczy kilka kliknięć. Dokładna analiza wyników przysparza jednak trudności. Definicja tego, jaki obraz można uznać za zseksualizowany, jest subiektywna i zależna od wpływów kulturowych, moralnych i społecznych.
Kiedy obraz staje się nieprzyzwoity?
Aby dokonać klasyfikacji tysięcy obrazów, DW posłużyło się należącym do samego Google'a narzędziem „Cloud Vision SafeSearch”, które wykrywa obrazy o nieprzyzwoitej treści. Dzięki sztucznej inteligencji narzędzie wskazuje zdjęcia osób w prześwitującym albo skąpym ubraniu i w prowokacyjnych pozach. Wykrywane są także zdjęcia niektórych części ciała.
W przypadku wyszukiwania kobiet z Dominikany i Brazylii Google dostarczył do 40 procent frywolnych obrazów. W przypadku wyszukiwania amerykańskich kobiet, było to tylko 5 procent, a w przypadku niemieckich 4 procent.
Stosowanie takich algorytmów budzi wątpliwości, bo są one obciążone uprzedzeniami i kulturową presją, być może nawet w większym stopniu niż w przypadku ludzkiego użytkownika. W niektórych przypadkach rezultaty wyszukiwania były nawet rasistowskie. Poza tym sztuczna inteligencja działa jako system zamknięty, co może prowadzić do dalszych zniekształceń. Przyjrzenie się obrazom, które Cloud Vision uznała za nieprzyzwoite, prowadzi jednak do pożytecznych wniosków. Daje bowiem wgląd w to, jak stworzona przez Google technologia ocenia poszczególne zdjęcia.
Dokąd prowadzą linki?
Każde zdjęcie, pokazywane w wynikach wyszukiwania, wskazuje też na stronę internetową, z której pochodzi. Nawet jeśli część zdjęć nie jest jednoznacznie wulgarna, to oryginalne strony prezentują często treści, które redukują kobiety do roli obiektów seksualnych. Kobiety z krajów Ameryki Łacińskiej, a także z Europy Wschodniej i Azji Południowo-Wschodniej przedstawiane są tam w sposób dramatycznie stereotypowy.
Aby sprawdzić, ile obrazów w wynikach wyszukiwania prowadzi do tego typu stron, przeanalizowano krótkie opisy pod zdjęciami, szukając w nich haseł takich jak „randki”, „seks”, „najgorętsze”. Strony mające w swoim opisie choć jedno z tych haseł zostały sprawdzone manualnie, aby stwierdzić, czy faktycznie zawierają treści seksistowskie.
Okazuje się, że kobiety z niektórych krajów są niemal całkowicie zredukowane do obiektów seksualnych. Z pierwszych 100 wyników wyszukiwania hasła „ukraińskie kobiety”, aż 61 odnosiło się do treści tego typu. Podobne wyniki przyniosło wyszukiwanie haseł o kobietach z Czech, Mołdawii, Rumunii oraz Ameryki Południowej i Azji Południowo-Wschodniej.
Co prawda także wyszukiwanie kobiet z zachodniej Europy prowadzi do tego typu wyników, ale zdecydowanie rzadziej. Ze 100 rezultatów dla hasła „niemieckie kobiety” było tak tylko w 16 przypadkach. W przypadku Francji w sześciu.
Stereotypy napędzają wyniki wyszukiwania
Słowa klucze mówią wiele, ale nie wszystko. Duża część znalezionych treści pochodzi ze stron typu „toprussianbrides.com”, „hotlatinbrides.org” czy „topasiabrides.net”. Gros tych stron prezentuje się jako międzynarodowe agencje matrymonialne. Obiecują one mężczyznom znalezienie (za pieniądze) kandydatki na żonę określonej narodowości.
Inne dają stereotypowe porady co do poszukiwania partnerek w poszczególnych kręgach kulturowych. Szybko staje się jasne, że ich odbiorcy to mężczyźni z krajów zachodnich, szukający uległej żony z zagranicy albo partnerki seksualnej. „Miałeś dotychczas do czynienia głównie ze zorientowanymi na robienie kariery kobietami z Zachodu? Związek z ukraińską kobietą będzie czymś zupełnie innym” – czytamy na jednej z takich stron, wyświetlanych na wysokiej pozycji w wynikach wyszukiwania Google.
Tamara Zlobina, redaktorka naczelna ukraińskiego magazynu internetowego „Gender in Detail”, podejrzewa, że to pokłosie fenomenu, który pojawił się w jej kraju w latach 90. – Po upadku Związku Radzieckiego Ukraina była ekstremalnie biedna. Wiele kobiet wyjechało wówczas na zachód Europy, aby zarabiać na utrzymanie rodzin – mówi. Obecnie szybko się to zmienia, bo sytuacja gospodarcza Ukrainy, a co za tym idzie szanse na edukację i rozwój zawodowy ukraińskich kobiet, zdecydowanie się poprawiła. – Wołałabym, żeby w wynikach wyszukiwania pojawiały się nasze dyplomatki, polityczki albo kobiety, które walczą na wojnie na naszej granicy. Mamy mnóstwo wspaniałych kobiet. I to powinno być widoczne, a nie rynek panien młodych! – mówi.
Profesorka Sirijit Sunanta, badaczka zagadnień wielokulturowości na Uniwersytecie Mhidol w Bangkoku, uważa, że realne stereotypy wpływają na to jak tajlandzkie kobiety przedstawiane są w internecie. – Tajlandia uchodzi za coś w rodzaju Disneylandu prostytucji i seksturystyki. Przenosi się to na internet, gdy wyszukuje się czegoś w Google'u – mówi DW. Gdy stereotypy przylgną do kobiet określonej narodowości, stają się też szkodliwe na innym poziomie. – Redukuje to ich wielorakość. Kobiety wszędzie są inne – zaznacza.
Kwestia języka
Wpływ na wyniki wyszukiwania ma też użyty język. Wyszukując po angielsku hasła „Brazilian women”, czy po portugalsku „mulheres brasileiras”, co oznacza dokładnie to samo, dostaniemy w Google'u różne, zseksualizowane treści. Wklepując „Brazilian women”, 41 ze 100 obrazów oznaczonych będzie jako wulgarne. Liczba ta spada jednak do dziewięciu, gdy szukamy „mulheres brasileiras”. Podobna prawidłowość występuje także w przypadku innych języków.
– Dane, którymi karmione są algorytmy, odzwierciedlają postrzeganie, uprzedzenia i wzorce konsumpcyjne zaledwie wycinka ludzkości – mówi Renata Avila, badaczka sztucznej inteligencji na amerykańskim Uniwersytecie Stanford. – Tych stereotypów nie można wiązać jedynie z technologią, ale też z czynnikami kulturowymi. Kobiety określonych narodowości wpychane są przez męską, anglojęzyczną kulturę w role seksualne i służebne – mówi w wywiadzie z DW. Z jej obserwacji wynika, że nie mamy tu do czynienia z pojedynczymi przypadkami, ale z głębokim, systemowym problemem. Avila uważa, że sprawiedliwe algorytmy nie pasują do modelu biznesowego globalnych firm Big Tech, którym zależy głównie na zbieraniu danych i zwiększaniu obrotu informacjami.
Chcesz skomentować ten artykuł? Zrób to na facebooku! >>
Podobnie widzi to brazylijska prawniczka Joana Varon, założycielka think tanku „Coding Rights”. Jak mówi, wyszukiwarki mają tendencje do reprodukowania takich treści, które są już mocno rozpowszechnione. Poza tym, największy wpływ na narzędzia i strategie stojące za rozpowszechnianiem publikacji i zwiększające liczby odsłon, mają właśnie biali mężczyźni z krajów rozwiniętych. – Jeśli algorytm nie robi nic, aby to wyrównać, to jest to rasistowskie, seksistowskie i patriarchalne – mówi prawniczka. Jak dodaje, komercyjne algorytmy i ich dostawcy muszą ponosić odpowiedzialność za to, co wytwarzają. W przeciwnym razie utwierdzają za pomocą globalnych narzędzi światopogląd bazujący na ucisku.
„Uregulować wielkie firmy Big Tech”
Joana Varon opowiada się za większym nadzorem, większą przejrzystością i konkurencją. – Nie może być monopolu na wszystkie usługi. Wielkie firmy technologiczne trzeba poddać regulacji! – mówi. Jednocześnie należy wspierać alternatywne narzędzia, które nie powinny jednak hołdować tej samej filozofii.
Renata Avila jest podobnego zdania. – Potrzebujemy nowej technologii, bazującej na przejrzystości i odpowiedzialności – mówi. Jak ocenia, jest to jednak nie do pogodzenia z obecnym sposobem myślenia w Dolinie Krzemowej. – Dlatego rozwiązania możliwe są tylko przy udziale różnorodnej, globalnej społeczności!
Deutsche Welle skierowała do biura prasowego Google listę z zapytaniami o nieobiektywne wyniki wyszukiwania opisywanych obrazów. Firma nie odpowiedziała szczegółowo na pytanie. Przekazała jednak oświadczenie, w którym przyznaje, że wyniki wyszukiwania zawierały „niedwuznaczne albo niepokojące treści, włącznie z wynikami, które odzwierciedlają negatywne stereotypy i uprzedzenia istniejące w sieci”. Google przyznaje, że jest to problem, bo ma „nierówne oddziaływanie na kobiety i kobiety o innym kolorze skóry”.
Google utrzymuje, że treści, pojawiające się w wynikach wyszukiwana, podlegają wpływowi tego, jak zorganizowane i oznaczone są informacje w internecie. Firma przyznała, że pracuje nad rozwiązaniem tego typu problemów. Nie poinformowano jednak o szczegółach.