Facebook se igra osjećajima
1. juli 2014Redoslijed istraživanja je brzo razjašnjen, ali će se o njegovom značaju raspravljati još godinama. Kod 700.000 korisnika Facebooka na engleskom govornom području je u januaru 2012. tokom jedne sedmice manipulisan sadržaj obavijesti. Jedni su bili u prilici da čitaju poruke sa pozitivnim sadržajem, dok je kod srugih sadržaj novosti bio tako filtriran da su, kada bi se ulogovali na Facebook, mogli vidjeti samo negativne poruke.
Socijalna infekcija putem Facebooka
Istraživači su ustanovili da je raspoloženje kod onih koji čak nisu imali nikakav direktan kontakt, a koji su bili u prilici da vide pozitivne poruke, također bilo pozitivno i tako su se izjašnjavali na svojim profilima. Oni kod kojih je algoritam tokom jedne sedmice servirao negativne vijesti su se pak očitovali negativno.
To dokazuje da su, kako pišu autori renomiranog stručnog lista „Proceeding of National Academy of Sciences“, „na Facebooku prezentovani osjećaji uticali na naše sopstvene“. Takva pojava se stručno definiše kao socijalna infekcija. No ne zna se da li su korisnici Facebooka nakon toga obaviješteni da su sudjelovali u eksperimentu.
Studija nije pravno problematična...
Sa pravnog aspekta Facebook ne bi smio imati problema zbog te studije. Naime, onaj ko se registrovao na ovoj platformi je saglasan sa njenim uslovima korištenja. Među 9.000 riječi iz teksta o uslovima korištenja je istaknuto i to da korisnik pristaje da se njegovi podaci“ mogu koristiti za analize, testove i istraživanja“.
Jedan glasnogovornik Facebooka se u jednom obraćanju prilično neodređeno osvrnuo na test i rekao: „Mi istražujemo kako bi poboljšali naše usluge i kako bi naši korisnivci imali pristup što boljim i relevantnijim sadržajima. Kako bi to postigli mi pokušavamo što bolje razumjeti kako ljudi reaguju na određene sadržaje i da li su njihove reakcije pozitivne ili negativne. Mi pažljivo razmatramo koje ćemo aspekte istraživati i analiziramo ih unutar kolektiva.“
..ali je etički upitna
Profesorica psihologije Susan Fiske sa Univerziteta Princeton redigovala je rezultate studije prije objavljivanja. Prema njenom mišljenju eksperiment je bio etički upitan. Ona je za magazin „The Atlantic“ izjavila da, imajući u vidu ogorčenje korisnika, studija nije trebala biti urađena na ovaj način. Autori studije su odbacili njene primjedbe. Konačno i sam Facebook permanentno manipuliše sadržajima Newsfeeda. Naime, algoritam u stvari iz mase sadržaja bira one koji su navodno najvažniji.
No, ogorčenje u mreži je veliko. Na tehnološkom blogu Techrunch je ovaj eksperiment okarakterisan kao „malo iznenađujući“ ali i kao „definitivno neetičan“. Zloupotreba sopstvenih korisnika bez njihovog znanja i manipulacija njihovim osjećajima, kako je još rečeno, odaje izostanak poštovanja i opasna je.