主页 > V优生活 >Facebook发表不是我们的错研究报告,指使用者应为自己在

Facebook发表不是我们的错研究报告,指使用者应为自己在

2020-06-07 155浏览量
Facebook发表不是我们的错研究报告,指使用者应为自己在

当社群媒体逐渐融入日常生活,社会科学家们开始关心社群媒体对网路民众可能造成的影响。虽然网路有助于人们看到更多元化的资讯,但是社群媒体独有的运算机制却可能选择性地决定民众看到的资讯内容,而着名的「过滤气泡现象」和「回声室效应」也应运而生 1。

「过滤气泡」理论主张运算机制会依据网路民众先前的网路行为,决定民众能够看到的文章,网路媒体像是脸书和 Google 可以藉此来避免民众看到和价值观不符,或不感兴趣的内容,导致民众身处多同质性高的言论环境中;而「回声室效应」则描述网路民众更容易接触到和自己意识形态相似,或是价值观相符的资讯,进而使得民众得到的网路讯息越来越趋单一化。

Facebook发表不是我们的错研究报告,指使用者应为自己在

许多学者表示,暴露于多元言论和价值观的机会,对于民主社会养成有正面影响,包括提高民众对政治事件的兴趣、增加对不同言论立场的包容性,以及提升政治知识等;而处在过高的同质性言论环境,则可能会造成像是态度极化等负面影响。然而也有学者指出,处在异质性的人际网络中,部分个体可能会为了避免冲突而降低参与某些政治活动的意愿 2。

普遍来说,学者们对于网路媒体运算机制可能造成的影响,像是「过滤气泡现象」和「回声室效应」,有诸多疑虑和批评。

然而,社群媒体的运算机制和相关数据多是不公开资讯,进行运算机制实质影响的研究并不容易且不常见,因此当脸书研究员前几天在《科学》期刊发表一篇最新报告「脸书上具多元意识形态的新闻与评论接触」,探讨民众脸书社群网络组成,以及「用户个人选择」与「脸书运算机制」对民众接触对立政治立场文章的影响,该篇文章随即在学术圈以及媒体产业界引起一阵热烈讨论。3

研究背景与重要发现

在提出这篇研究报告的相关评论前,先来细看重要的研究背景与发现。

研究背景:

研究样本包括在 2014 年 7 月 7 日到 2015 年 1 月 7 日半年期间,在个人档案上填写政治立场的 1010 万名 18 岁以上的美国活跃脸书用户,以及约 23 万笔有关「硬」新闻的连结分享,而每则连结都需要在这半年期间,被至少 20 个前述回报个人政治立场的脸书用户分享。

研究将用户回报的政治立场转换成五点量表,由于只有 9% 的 18 岁以上美国脸书用户填写政治立场,且其中只有 46% 填写政治立场的用户其立场可以被转换成五点量表,因此最终研究样本只包括大约 4% 的所有美国脸书用户。

每则「硬」新闻连结的政治立场,是透过计算所有该则新闻分享者政治立场的平均值而得,该数值被称为「内容对齐」,正值代表分享文章立场趋保守派立场,而负值则表示分享新闻偏自由派立场。举例来说,政治立场偏共和党的 Foxnews.com 其 A 值为 +.80,而被认为偏民主党的 Huffington Post 的 A 值为 -.65。

研究发现:

Facebook发表不是我们的错研究报告,指使用者应为自己在
Facebook发表不是我们的错研究报告,指使用者应为自己在
Facebook发表不是我们的错研究报告,指使用者应为自己在
Facebook发表不是我们的错研究报告,指使用者应为自己在

该研究指出,和社会普遍对网路民众「只会和意识形态相近者互动」的想像不同,研究结果证实民众不是只会接触到和自己立场相近的文章,社群媒体还是会让民众阅读到部分政治不同立场的新闻文章。研究也表示,「或许不意外地,我们的社群网路组成,是限制我们在社群媒体上看见多元内容最重要的因素。」4

脸书研究员们为这篇研究报告下了个总结:「最后,我们的结果确切地显示出,在脸书上的平均状况而言,个人选择比起运算机制,更容易限制用户看见挑战个人价值观的内容」,以及「我们的研究结果建议,要让个人在社群媒体有暴露于对立意识形态观点的机会,用户个人有首要及最关键的掌控权。」5

社会科学家们的评论

这篇文章可以说是难得的透过脸书实际数据,来回答社会学家长久以来关心的社群媒体研究课题。只是,重要的研究价值虽然并引起众多关注,却也引来部分学者批评。

像是密西根大学传播学系副教授克里斯提· 桑维发表一篇标题为「脸书的『这不是我们的错』研究」,抨击脸书研究中不合理之处,以及不寻常的论述包装。北卡罗来纳大学教堂山分校资讯与图书馆学系助理教授泽奈普· 图费克吉也在网誌中写道「我读过很多学术研究文章,通常作者都会想方设法地突显重要发现。然而这篇研究,却尽可能地透过迂迴的言语和不相关的比较,来隐藏研究发现」。而「过滤气泡现象」提出者伊莱·帕李泽也立即对这篇研究做出回应,虽然用词相较之下和缓许多,但是文中仍点出不少该研究不足之处。6

为什幺脸书的研究文章会让学者们产生这些批判呢?最重要的关键问题在于,研究最后总结表示「个人选择」比起脸书的「运算机制」,更应该为脸书上的「过滤气泡现象」和「回声室效应」来负责。

学者们表示这样的说法并不恰当,原因包括:

此外,学者们表示研究员在结论中指出这些结果反映脸书上的「常态」,却忽略此篇「研究样本的特殊性」。在个人档案上注明政治立场的样本条件并不寻常,这些用户相较一般脸书观众,可能政治意识形态特别强烈鲜明,或是对政治特别热衷且积极。这些样本的特殊性也解释为什幺此篇研究最后样本数,只佔所有脸书用户的极小比例。

而学者们也点出其他的潜在研究限制,包括「硬」新闻连结的政治立场,是由文章分享者的立场,而不是依据文章来源的政党倾向,或文章内容分析来决定,以及脸书「运算机制」随时都在改变的特性,也会降低该篇研究结果的通则性。脸书研究员在文章中也表示,他们对于接触和点击文章的定义并不完善,像是有些文章的重要结论已经摘要在动态墙上,用户并不需要透过点击就可以看见。

延伸想想:脸书研究的一堂课

当然,脸书愿意进行研究并且公开分享成果的行为是值得鼓励的,无论对于研究者、广告商还是一般大众来说,这些内部研究发现都可说是非常珍贵且重要,许多学者和广告商们长久的疑问和猜测,也终于透过脸书的内部研究解开了部分谜团。

像是研究指出,对于少数会表明政治立场的脸书用户,除了个人选择外,脸书「运算机制」也被证实在某种程度上,会些微地降低用户阅览新闻的多样性。平均来说,这些脸书用户只会点阅脸书墙上不到一成的「硬」新闻,而政治立场越鲜明甚至极端的文章,被用户分享的机率也更高。此外,动态墙上的新闻排列顺序,也被证明确实会影响点阅机率且差异极大。

虽然脸书的研究成果提供非常多重要发现,只是,当商业公司提出学术发表时,也会被用更严格的眼光来审视,这也是为什幺学者们会提出诸多个人观察和批判,希望帮助民众更正确且深入地去解释研究结果。

最后也不妨思考看看,是不是真的如脸书在研究最后总结,用户个人该为脸书「过滤气泡」现象负首要责任呢?

  1. Praiser, E. . The Filter Bubble: What the Internet is Hiding from You. New York, NY: The Penguin Press; Sunstein, C. . Republic.com 2.0. Princeton, NJ: Princeton University Press. ↩
  2. Kwak, N., Williams, A. E., Wang, X., & Lee, H. . Talking politics and engaging politics: An examination of the interactive relationships between structural features of political talk and discussion engagement. Communication Research, 32, 87–111; Mutz, D. C. . The consequences of cross-cutting networks for political participation. American Journal of Political Science, 46, 838–55; Mutz, D. C., & Mondak, J. J. . The workplace as a context for cross-cutting political discourse. The Journal of Politics, 68, 140–155; Stroud, N. J. . Polarization and partisan selective exposure. Journal of Communication, 60, 556–576. ↩
  3. Bakshy, E., Messing, S., & Adamic, L. Exposure to ideologically diverse news and opinion on Facebook. Science. DOI: 10.1126/science.aaa1160. ↩
  4. Perhaps unsurprisingly, we show that the composition of our social networks is the most important factor limiting the mix of content encountered in social media. ↩
  5. Finally, we conclusively establish that on average in the context of Facebook, individual choices more than algorithms limit exposure to attitude-challenging content… Our work suggests that the power to expose oneself to perspectives from the other side in social media lies first and foremost with individuals.↩
  6. 〈The Facebook “It’s Not Our Fault” Study〉; 〈How Facebook’s Algorithm Suppresses Content Diversityand How the Newsfeed Rules Your Clicks〉; 〈Did Facebook’s Big New Study Kill My Filter Bubble Thesis?〉 ↩
上一篇: 下一篇:
申博sunbet娱乐开户|热点新闻资讯|最具影响力的门户网站|网站地图 菲律宾申博官网备用网址_凯撒娱乐手机app下载 菲律宾申博官网备用网址_赢伽2平台