算法对“信息茧房”影响的新研究,解析算法与“信息茧房”的复杂关系

本文主要探讨算法与“信息茧房”之间的关系。近年来平台算法应用生态受到监管关注,在相关治理行动中,“信息茧房”等问题成为重点。对于算法是否应为“信息茧房”负责存在争议,有研究表明算法驱动的个性化推荐会增强新闻多样性,但也有研究得出不同结论,同时人类在构建“信息茧房”中也有主动作用,最后还提及了破解“信息茧房”需要多方努力。

记者闫桂花报道,平台算法应用生态在近年来成为监管焦点。在互联网信息服务算法相关的多部政策文件出台之后,从去年11月开始,中央网信办协同四个部门开展了“清朗·网络平台算法典型问题治理”专项行动(以下简称“专项行动”)。在这个专项行动里,整治“信息茧房”、提升算法的正向服务能力、防止用户沉迷等成为重点关注内容。

“信息茧房”(information cocoon),也被叫做过滤气泡(filter bubble),它是指个性化算法通过追踪用户的行为,像点击、停留时长、社交关系等方面,筛选出符合用户偏好的内容,从而形成一种“无形的信息过滤机制”。用户看起来是在自由选择内容,但实际上却被困在算法编织的“气泡”之中,接触到的信息逐渐变得同质化,最终导致认知形成闭环。这一概念最早是由互联网活动家伊莱·帕里泽(Eli Pariser)在2011年提出的。当时社交媒体正在兴起,算法推荐系统逐渐取代传统媒体,成为新闻分发和消费的重要机制。而在最近几年,随着人工智能快速发展,“算法之恶”更加明显,成为舆论谴责的焦点,也被纳入监管范围。去年11月,农夫山泉创始人钟睒睒用“大恶”“必须改变”等尖锐的词汇,强烈指责社交媒体借助算法机制屏蔽信息、歪曲事实、助长网络暴力,这引发了一场针对算法和平台的舆论风暴。

算法到底应该为“信息茧房”承担多少责任呢?这个答案还不明确。技术批评者把算法比作“食肉的老虎”,认为算法的设计初衷和商业模式就意味着对用户注意力的单向收割以及对信息的过度筛选;然而反对者却觉得,人性才是产生“信息茧房”的土壤,算法只是放大了人性的弱点。

近期,一项发表在新闻顶级刊物《Digital Journalism》的研究显示,算法驱动的个性化推荐,相较于用户的自我选择,反而能够提升新闻的多样性。暨南大学新闻与传播学院的研究者运用一种虚拟代理测试的实验方法,模拟人类用户与推荐算法的互动,探究算法与用户行为交互对新闻多样性的影响。

具体而言,他们利用虚拟用户在抖音平台上模拟不同的用户行为并且自动收集数据,对比了三种情况——纯随机曝光(也就是没有个性化推荐)、仅有预选个性化(算法推荐但不受用户输入影响)以及同时存在预选和自选个性化(算法推荐并结合用户选择)——下的新闻多样性,同时考察了用户主动选择的新闻主题范围和用户对不符合其兴趣的新闻内容进行互动的概率对新闻多样性的影响。

研究结果发现,算法推荐的新闻比纯随机新闻更具多样性,特别是在仅有算法决定推荐内容时,多样性最高。当用户参与内容选择时,新闻曝光的多样性反而有所降低,这表明用户的偏好会进一步强化已有兴趣,减少对多元新闻的接触。

这项研究还发现,如果用户主动关注更多类型的新闻,新闻曝光的多样性会增加,但是如果关注范围变化不大,多样性就不会明显提高。同时,只有当用户大幅增加对无兴趣内容的互动(例如遇到无关新闻有75%的概率去点击)时,新闻多样性才会显著提升,这意味着仅靠用户自身调整行为远远不足以打破信息茧房。

文章作者指出:“我们认为,算法本身不应该被指责限制了多样性;实际上,它是一种潜在的推动新闻多样性的工具。一个强有力的、促进多样性的算法可以帮助聚焦公众的注意力,通过提供一套统一然而多样性的新闻,防止个体深陷极端信息或误信。”

然而,早在2023年,清华大学基于大数据的一项实证分析得出了不同的结论。

实验者从两个大型数据集找到了大量用户被困于“信息茧房”的证据,进而指出信息多样性的丧失与人机交互系统中的两个基本机制密切相关。一是基于相似性的匹配机制;二是对用户反馈的利用,即根据用户的正面和负面反馈来调整后续推荐内容。例如,最初用户可以访问各种主题,如名人、运动、动物等,但随着用户和推荐算法之间交互的增加,他们的访问权限逐渐仅限于其中的几个主题。

另外,暨南大学研究者提到的“多样性”,可能也存在争议。就连作者也表示:“非常值得强调的一点是,算法生产的多样性不一定是真正的多样性”,因为无论其范围和选择如何多样性,都仍然是在平台的控制之下,用户很难逃脱算法垒下的高墙。

面对钟睒睒的质问,抖音副总裁李亮在接受凤凰网采访时回应称,抖音更看重的指标是用户的长期留存,从商业逻辑上看,他们“没有动力去制造所谓的‘茧房’,也最有动力打破‘信息茧房’。”

不过,有一些观点指出,只要平台的盈利主要来自对用户注意力的留存,那么算法带来的所谓的多样性,如果真的存在的话,也很可能只是从单一的情绪化内容变成多样的情绪化内容而已,其结果仍然是认知的极化和撕裂,因为情绪化内容最能延长用户的使用时长。

这就不得不提到人类在构建“信息茧房”过程中的主动作用。即使算法是完全中立的,用户仍然会主动选择符合自身偏见的内容。诺贝尔经济学奖得主丹尼尔·卡尼曼(Daniel Kahneman)曾提出,人脑存在两个系统,“系统1”由情感驱动,依赖直觉和本能,追求即时满足;“系统2”主要负责逻辑推理和理性思考。情绪渲染类的内容备受欢迎,因为它们完美迎合了“系统1”。通过15秒短视频、情绪化标题和即时反馈机制,将用户锁定在多巴胺驱动的循环中。也有实验显示,当用户被强制推送对立观点时,反而强化了原有立场。从这个意义上讲,算法作为一个工具,放大了人类认知中有助于形成“信息茧房”的一面。

对于如何破解“信息茧房”,暨南大学和清华大学的两项研究都认为,用户可以通过反向“训练”算法来增加信息的多样性,比如有意识地对算法的选择给予负面反馈并随机探索其他选项。不过,研究人员也指出,这种做法虽然可能有用,但要大幅提升信息的多样性,打破“信息茧房”,仅靠个体自身是很难做到的。

因此,政府必须加强监管,出台相应的政策和法规。在最近的专项行动中,网信办等要求平台不得推送高质化内容诱导用户沉迷,不得强制要求用户选择兴趣标签,不得超范围收集用户个人信息用于内容推送以及规范设置“不感兴趣”等负反馈功能等。在此之前的2021年和2022年,监管部门先后发布《关于加强互联网信息服务算法综合治理的指导意见》和《互联网信息服务算法推荐管理规定》,为建立健全算法安全监管体系、规范信息服务提供了明确的法律依据和制度保障。当然,除了技术和监管,能否打破“信息茧房”,还要取决于每一个个体的选择。

本文探讨了算法与“信息茧房”的关系,从不同研究的结论出发,分析算法在“信息茧房”形成中的角色。一方面有研究表明算法可能增加新闻多样性,另一方面也有研究指出算法与“信息茧房”的关联。同时强调人类在构建“信息茧房”中有主动作用,而破解“信息茧房”需要政府监管、用户自身努力等多方面的协同合作。

原创文章,作者:Wonderful,如若转载,请注明出处:https://www.gouwuzhinan.com/archives/15030.html

(0)
WonderfulWonderful
上一篇 2025年2月12日
下一篇 2025年2月12日

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注