撰文|张榆泽
算法会加剧社会分裂吗?这种“技术决定论”叙事在经验证据上是薄弱的。算法的核心是商业性的“参与度优化”,而非意识形态灌输。更关键的是,国外的研究发现,极化主要由政治精英、党派媒体和深层社会经济结构驱动,强迫人们走出茧房、接触对立观点,非但不能促进理解,反而会使其立场变得更加极端。
● ● ●
早在“算法”成为热词之前,瓦尔特·李普曼(Walter Lippmann)就对“舆论”的形成提出了深刻的质疑。他引用罗伯特·皮尔爵士的话说,“所谓舆论就是汇集了愚蠢、软弱、偏见、错误的感觉,准确的感受,固执的观点和报纸文章的大杂烩”。近一个世纪前,人们几乎不会把社会的裂痕简单归因于某一特定要素,而是试图从更复杂的结构中找到答案。
在当代公共话语中,一种普遍的观点认为,社交媒体在加剧社会分裂,无论是故意推送对立观点以制造不同群体之间的矛盾,还是将极端者聚集起来相互强化,这些叙事都指向一个共同的“元凶”:算法。
这种“技术决定论”的观点,很大程度上源于伊莱·帕里泽(Eli Pariser)提出的“过滤泡”(Filter Bubble)概念,他认为算法的个性化推荐机制会将用户在知识上隔离开来,只向他们展示与其既有观点相符的内容,从而助长了政治极化。
这个逻辑符合我们的直觉,但它在很大程度上只是一种“未经证明的预设”。近年的多项研究正在对这一“常识”发起挑战。
01
“茧房”的实证脆弱性
首先,“算法导致茧房”这一前提,在实证研究中就显得相当薄弱。
人们常说的“过滤泡”,指的是算法通过个性化排序,为我们每个人创造了一个独特的信息宇宙,从而侵蚀了共同的讨论基础。而“信息茧房”或“回音室”(Echo Chamber),则指我们最终停留在一个封闭的媒体空间,内部信息被放大,而外部信息被隔绝。
但现实中,这样的“茧房”真的普遍存在吗?
路透新闻研究所(Reuters Institute)发布的一份文献综述在回顾了大量相关研究后指出:真实的“茧房”非常罕见,大多数人接受的媒介信息是相对多样化的。一项针对英国的研究估计,只有约6%到8%的公众处在党派新闻的“回音室”中。
与普遍认知相反,多项研究一致发现,依赖搜索引擎和社交媒体获取新闻的人,其接触到的新闻来源反而更广泛、更多元。这被称为“自动的机缘巧合”(Automated Serendipity)——算法会“投喂”给你本不会主动选择的内容。
少数确实存在于茧房中的人,主要是因为他们主动选择只看某些媒体,而不是算法有预谋推送的结果。
事实上,那些认为算法离间的观点,往往假设平台乐于见到冲突,因为冲突带来流量。然而,这种假设忽视了平台运营的真正目标:长期用户留存。
正如抖音安全与信任中心所公开的算法原理,如果算法一味迎合用户已有的兴趣,会导致内容越来越同质化,这会使用户很快感到无聊并离开平台。因此,推荐系统必须在“利用”和“探索”之间保持平衡,主动将用户可能感兴趣的新内容推送给用户,以保持新鲜感和用户黏性。
02
当“兼听”不再“明”
既然“算法导致茧房”的证据不足,那么极化的根源究竟在哪?
中国有句古话叫“兼听则明”,西方的商谈民主理论也认为,公民在理性商谈中接触不同观点,会变得更温和。如果“茧房”是问题所在,那么打破它——让人们“兼听”——理应能缓解极化。
但如果这个前提在社交媒体时代失效了呢?
杜克大学社会学家克里斯·贝尔(Chris Bail)教授进行了一项巧妙的实地实验,直接测试了这个问题。他的团队招募了一批立场坚定的民主党和共和党推特用户,然后付钱让他们关注一个专门转发对立阵营政治言论的“机器人”账号。
这个实验的设计,本质上就是强行打破茧房,迫使参与者“兼听”。然而,实验结果让人意想不到:一个月后,参与者非但没有变得更温和、更理解对方,反而普遍变得更加极端了。
这一发现证明,至少在社交媒体环境中,强迫你“走出信息茧房”,非但没有解决问题,反而加剧了极化。
阿姆斯特丹大学一项最新的“生成式社交模拟”研究进一步证实了这一观点。当研究者使用AI智能体创建了一个只有发帖、转发和关注功能的“最小平台”后,发现即使没有复杂的推荐算法,党派回音室、影响力高度集中和极端声音放大等功能障碍依然会自发产生。情绪化的(往往是极端的)内容获得更多转发,转发行为又为发布者带来更多关注者(即影响力),这又进一步强化了极端内容在网络中的主导地位。
这一发现的意义在于,问题不是算法“隔离”了我们,而在于人类社交网络的基础架构就会奖励那些基于身份、情绪化、非理性的反应,并允许这些反应直接构建了我们的社交关系。
03
极化的真相是什么?
为什么接触对立观点会适得其反?要回答这个问题,我们必须区分两种截然不同的“极化”。
现代政治科学研究指出,意识形态极化(Ideological Polarization),即人们在具体政策立场上的分歧,在普通民众中并未显著增加。然而,情感极化(Affective Polarization),即不同党派群体之间日益增长的厌恶、不信任和敌意,却在急剧上升。这种极化无关乎政策,关乎身份;其特征更多体现为“对群外的憎恨”(Out- Group Hate)。
贝尔教授据此提出的“社交媒体棱镜”(Social Media Prism)理论认为,社交媒体既不是“镜子”,也不是“茧房”,而是一面“棱镜”:它会扭曲我们对自我和他人的认知。
这种扭曲来自两个方面:首先,社交媒体的核心机制是身份展演和地位竞赛,这为极端者提供了最佳舞台。其次,当极端者占据了舆论场,温和派会因“沉默的螺旋”而噤声。这面“棱镜”让我们错误地以为对立阵营里所有人都是我们在网上看到的那些极端分子。
这也解释了贝尔的实验为何失败:参与者被迫看到的,并非温和的对立观点,而是被“棱镜”折射过的、最刺耳的声音,这自然加深了他们的情感极化。也有研究表明,用户虽然能感知到一种基于身份的“个体意见氛围”,但其“个体意见表达”却并不受其显著影响,更别说制造认同,从而演变成非理性行为了。
04
超越“参与度”,算法的未来在哪?
算法是在一个预先存在的极化环境中运作的,而非创造了这个环境。
极化加剧的时间线,远早于现代社交媒体算法的出现,一种“自上而下”的模式似乎很早就有。
首先,精英极化(Elite Polarization)先于并驱动着大众极化,政治家和活动家首先采取了更鲜明的立场。其次,深层的社会经济因素,如日益加剧的经济不平等,与政治极化之间存在着深刻的结构性关系。此外,时间序列分析也显示,收入不平等的衡量标准(如基尼系数)与国会极化程度之间存在着强烈的长期相关性。
将算法视为极化危机核心的“技术决定论”叙事,是对一个复杂、多因现象的过度简化。
“算法离间论”和“傻子共振”所描述的现象,其根源更多在于人类的心理偏见(如选择性接触)和深层的社会政治结构。当一条长达450分钟的《红楼梦》深度解读视频能获得3亿播放量,这恰恰是算法主动破壁、发掘用户深度兴趣的结果,而非“茧房”的产物。
既然算法只是“放大器”,那么简单的技术调整能否“校正”这种放大效应?阿姆斯特丹大学的“AI沙盒”(Sand box)研究为此提供了发人深省的答案。研究者测试了六种广泛提议的“亲社会干预措施”,结果发现那些看似“解药”的方案效果“微乎其微”,甚至适得其反。
例如,强行打破所谓茧房(即“提升对立党派内容”)的干预措施,结果显示“几乎没有影响”,AI智能体在被迫接触对立观点时,并没有改变自己的行为,再次证实了“跨党派曝光本身是不够的”。而许多人呼吁回归的“按时间排序”信息流,虽然确实能大幅降低“注意力不平等”,但它带来了意想不到的负作用:它加剧了社交媒体棱镜效应,使得极端党派用户的声音获得了更强的相对影响力。
因此,富有成效的干预措施,不应着眼于创造“中立”算法这一徒劳的目标。而应更多地关注探索超越原始参与度优化的替代性算法设计,例如,转而优先考虑奖励用户的“陈述偏好”(用户反思后认为有价值的内容)而非“揭示偏好”(用户冲动点击的内容),或为“建设性话语”进行设计,从而将技术的力量植根于对我们当前分裂的人类和政治根源的更准确理解之上。
本文作者系对外经济贸易大学文学与国际传播学院讲师
参考文献:
[1] Larooij, M., & Törnberg, P. (2025). Can we fix social media? Testing prosocial interventions using generative social simulation. arXiv preprint arXiv:2508.03385v1.
[2] Milli, S., Carroll, M., Wang, Y., Pandey, S., Zhao, S., & Dragan, A. D. (2025). Engagement, user satisfaction, and the amplification of divisive content on social media. PNAS Nexus, 4, pgaf062.
[3] Arguedas, A. R., Robertson, C. T., Fletcher, R., & Nielsen, R. K. (2022). Echo chambers, filter bubbles, and polarisation: a literature review. Reuters Institute for the Study of Journalism.
[4] Zuiderveen Borgesius, F. J., Trilling, D., Möller, J., Bodó, B., de Vreese, C. H., & Helberger, N. (2016). Should we worry about filter bubbles?. Internet Policy Review, 5(1).
[5] Bail, C. A., Argyle, L. P., Brown, T. W., Bumpus, J. P., Chen, H., Hunzaker, M. F., Lee, J., Mann, M., Merhout, F., & Volfovsky, A. (2018). Exposure to opposing views on social media can increase political polarization. Proceedings of the National Academy of Sciences, 115(37), 9216-9221.
[6] Waller, I., & Anderson, A. (2021). Quantifying social organization and political polarization in online platforms. arXiv preprint arXiv:2010.00590v3.
[7] Bakker, B. N., & Lelkes, Y. (2024). Putting the affect into affective polarisation. Cognition and Emotion, 38(4), 418-436.
[8] Vlaicu, R. (2023). Inequality, participation, and polarization: Economic origins of partisan policies (Discussion Paper N° IDB-DP-1040). Inter-American Development Bank.
[9] Prummer, A. (2020). Micro-targeting and Polarization. Accepted Paper
[10] 王伯鲁. 马克思技术决定论思想辨析[J]. 自然辩证法通讯, 2017, 39(5): 126-135.
[11] 晏齐宏. 算法推荐对网民意见极化的影响机制研究——基于舆论可见性视角的多层次分析[J]. 现代传播, 2024, 8: 12-25.
0
推荐


京公网安备 11010502034662号 