Umjetna inteligencija kao programirana diskriminacija?
7. rujna 2023„Umjetna inteligencija olakšava mnoge stvari, nažalost i diskriminaciju", kaže Ferda Ataman, neovisna povjerenica njemačke vlade za borbu protiv diskriminacije. Ona je u Berlinu predstavila izvještaj stručnjaka koji je naručila s ciljem bolje zaštite ljudi od moguće diskriminacije od strane samoučećih algoritamskih sustava odlučivanja (ADM).
Skraćenica ADM dolazi iz engleskog: „algorithmic decision making systems“. To su strojevi ili softver koji uz pomoć podataka izračunava broj na temelju kojeg se može donijeti neka odluka.
Ferda Ataman daje tipične primjere upotrebe te vrste umjetne inteligencije: procesi apliciranja, krediti kod banaka, osiguravajuće kompanije ili dodjela državnih transfera kao što je socijalna pomoć.
Predrasude i stereotipi
„Tu se izjave o vjerojatnoći prave na temelju općih karakteristika grupe“, kaže Ataman opisujući kako strojevi rade, te upozorava: „Ono što se na prvi pogled čini objektivnim može automatski reproducirati predrasude i stereotipe. Ne smijemo podcijeniti opasnosti digitalne diskriminacije“, kaže povjerenica njemačke vlade.
Više od 20.000 ljudi u Nizozemskoj iskusilo je 2019. do čega može dovesti pogrešna upotreba navodno nepotkupljive tehnologije: optuženi su za prevaru države pod prijetnjom visokih kazni, a od njih je zatraženo da vrate dječji dodatak unatrag nekoliko godina. Radilo se o desetinama tisuća eura po obitelji.
Pogođeni su bili prije svega ljudi migrantskog podrijetla, odnosno oni s dvojnim državljanstvom. Ispostavilo se da su ljudi pogrešno optuženi, te da je to bila greška za koju je djelomično bio odgovoran algoritam u softveru.
Podaci i funkcionalnost kao „crna kutija"
Kako bi se spriječilo takve slučajeve, Ferda Ataman traži od kompanija više transparentnosti. Oni koji koriste umjetnu inteligenciju ubuduće bi trebali imati, odnosno dati uvid u korištene podatke i način na koji sustav funkcionira.
U izvještaju koji su napisali stručnjakinja za pravo Indra Spiecker i njezin kolega Emanuel V. Towfigh, karakter sustava utemeljenih na umjetnoj inteligenciji opisuje se kao „crna kutija" (Black Box). Time hoće reći da je pogođenima praktički nemoguće pronaći uzroke diskriminacije.
„Specifičan fenomen upotrebe ADM-sustava je da njihov potencijal za diskriminaciju može biti dio samog sustava", navodi se u izvještaju.
Razlog diskriminacije može biti nevažan, neispravan, neprikladan za predviđenu svrhu ili iskrivljen skup podataka.
Karakteristika potencijalne diskriminacije
Što se pod tim podrazumijeva, u izvještaju je ilustrirano tipičnim primjerima: „Poštanski broj, koji sam po sebi nije diskriminatoran, postaje posrednik za zabranjenu diskriminaciju podrijetla, jer mnogi migranti žive u određenom dijelu grada, iz povijesnih razloga.“
To može imati negativne posljedice po ljude koji tamo žive, jer se na njih gleda kao na opći financijski rizik kada se radi o kreditima. Računa se, naime, da oni neće moći otplatiti svoje dugove. Kao rezultat toga, oni često uopće i ne dobivaju kredite.
Stručnjaci tu praksu pripisivanja karakteristika nekome uz pomoć statistike, a na temelju stvarnih ili pretpostavljenih prosječnih vrijednosti neke grupe, nazivaju: „diskriminacija kroz statistiku“.
Povjerenica traži Arbitražni odbor
Za takve i druge slučajeve, povjerenica njemačke vlade za borbu protiv diskriminacije pri svojoj instituciji želi utemeljiti Arbitražni odbor. Osim toga, Ferda Ataman zahtjeva da se Opći zakon o jednakom tretmanu (AGG) dopuni obveznim arbitražnim postupkom.
Kako bi ilustrirala nužnost brzog djelovanja, ona navodi primjere iz drugih zemalja, slične onom iz Nizozemske.
SAD: pogrešno programirani algoritmi na kreditnim karticama Apple sustavno su stavljali žene u nepovoljniji položaj pri dodjeli kredita, odnosno odlaska u minus.
Australija: nakon greške u sustavu podržanom umjetnom inteligencijom, stotine tisuća ljudi je dobilo zahtjev da vrati socijalnu pomoć na koju su imali pravo.
„Digitalizacija ne smije postati noćna mora"
Zaključak koji Ferde Ataman izvlači iz izvještaja stručnjaka glasi: „Digitalizacija pripada budućnosti, ali ne smije postati noćna mora. Ljudi moraju biti u stanju da vjeruju da neće biti diskriminirani od strane umjetne inteligencije“. A ako se to ipak dogodi, ljudi također moraju vjerovati da će moći braniti.
Zato su potrebna jasna i razumljiva pravila za reguliranje umjetne inteligencije, naglašava povjerenica njemačke vlade za borbu protiv diskriminacije.
Pratite nas i na Facebooku, preko X-a, na Youtubeu, kao i na Instagramu