Facebook的情感操控测试是不道德的——社交媒体的其他部分也是如此 - 彭博社
Joshua Brustein
摄影:西蒙·道森/彭博社人们发现 Facebook 进行了一项实验,微妙地操控了选定用户新闻推送中的情感内容,这让人们感到愤怒。2012年实验的目的是确定如果Facebook用户看到更多快乐的帖子或更多负面的帖子,反应会如何变化,原因是显然担心看到太多积极帖子的人可能会对自己贫乏的社交生活感到不安。研究人员发现事实正好相反。
关于Facebook行为的伦理问题是合理的。科学家不应该在没有获得许可的情况下 对人进行实验。“如果你让人们接触到会导致心理状态变化的东西,那就是实验,”马里兰大学技术与法律教授詹姆斯·格里梅尔曼告诉 Slate。
Facebook的数据科学家亚当·克雷默 为研究造成的焦虑道歉。“最终,实验对人们的实际影响是统计上可检测到的最小量——结果是人们在接下来的一个星期内,每千个单词中平均少使用一个情感词,”他在周日的Facebook帖子中写道。
这场骚动的存在仅仅是因为Facebook在科学期刊上发表了一篇关于研究的论文。然而,从科学标准来看,几乎所有社交媒体都是一种不道德的实验。毕竟,Facebook并不声称向用户展示他们朋友发布内容的未过滤版本。它使用一些神秘的因素组合来决定哪种内容组合最有可能让人们在网站上停留更长时间。目标始终是增加用户看到的广告数量。Facebook做出的几乎每一个决定都是基于什么能为Facebook赚钱。这虽然是一个好的商业模式,但作为科学却无法通过检验。
Facebook的商业模式与社会科学研究之间的主要区别在于,情感操控是副作用而不是主要目标。例如,去年底的对新闻推送控制的斗争。在这种情况下,Facebook发现其算法对来自Upworthy和BuzzFeed等网站发布的流行、无聊新闻过于友好。公司内部的许多人希望调整其过滤器,以奖励更严肃的新闻。考虑到渴望病毒式传播的内容往往是积极的,而新闻通常是令人沮丧的,Facebook实际上是在通过偏向某一方来进行同样的实验。
同样的情况也适用于社交媒体推送和搜索结果中的任何个性化。这些服务根本不是中立的。意识到这一点是网络素养的基本部分。但也许Facebook可以将其情感过滤器变成一个功能。它拥有所有必要的条件来制作一个切换按钮,让人们选择他们想要的网站的愤怒版本还是感伤版本。