脸书“心理试验”引发众怒
2014年6月30日(德国之声中文网)2012年,网络社交平台脸书(Facebook)通过篡改内部程序算法的方式,操作部分用户所能见到的新闻内容,总共涉及近70万用户,其中大约31万用户所看到的新闻推送内容实际受到了操控。这项"试验"持续一周,目的是研究新闻内容会对用户情绪产生何种影响。
这项"试验"由脸书、康奈尔大学和加州大学旧金山分校联合进行,研究结果发表于6月17日一期的《美国国家科学院院刊》。
研究者们希望了解,用户所阅读信息中包含积极或消极字眼的数量是否会对他们产生影响,导致这些用户在自己的状态更新上也发表积极或效应内容。
情绪传染程度有限
研究结果显示,阅读内容受到操控的用户在接触到消极讯息之后,确实会在自己的状态更新栏中同样使用消极字眼,反之亦然。但是这一效应非常有限。看到较少消极信息的用户,会发表的积极内容仅多出0.06%,消极内容减少0.07%。
周六(6月28日),网络杂志"Slate"和"大西洋"(The Atlantic)网站就此事件进行报道之后,该项研究结果随即在公众舆论中扩散。
"情感状态可以通过情绪传染的方式传递给他人,让人们在不自知的情况下感受同样的情绪,"研究作者写道。
"这些结果显示,他人在脸书上的情绪宣泄会对我们自己的情绪产生影响,为社交网络上的大规模(情绪)传染提供了实证依据。"
其他类似研究项目均使用元数据来进行趋势研究,而该项研究的独特性在于研究对数据进行操控,以便观察对象是否有所反应。
试验合法 道德存疑
法新社在相关报道中指出,这项研究符合脸书的相关规定,但问题在于,这样做是否存在道德问题?
一位推特用户写道:"如果脸书为了进行大规模心理试验而操纵用户内容,Yeah,是时候关闭脸书帐户了。"
其他推特用户则使用类似"超级恶心","令人毛骨悚然"和"邪恶"等字眼来形容脸书的做法。
对研究报告进行编辑工作的普林斯顿大学菲斯克教授(Susan Fiske)对"大西洋"网站表示,她此前就对该项研究表示忧虑,并曾与报告作者取得联系。
对方告知菲斯克,他们的研究审核委员会批准了该项研究,理由是"脸书显然始终都在操纵人们的新闻内容。"
菲斯克承认,自己对于该项研究感到"颇为恐怖"。
脸书对"大西洋"网站表示,他们对研究进行了"认真考虑",并且经过了"严格的内部审核程序"。数据分析员克拉默尔(Adam Kramer)强调,就互联网整体而言,这次试验涉及的尽是很小一部分用户,"0.04%的用户,也就是说:每2500个人中只有一个人。"没有人的脸书内容被隐藏起来,只是在部分其他用户的推送信息中无法看到。克拉默尔在脸书上发布帖子称,研究目的是为改善脸书的服务质量。
脸书是世界最大网络社交平台,声称拥有超过10亿活跃用户。
综合报道:石涛
责编:苗子