社交媒体平台上的政治对立、同温层效应与极端言论,长久以来多被归咎于算法推送。不过,阿姆斯特丹大学(University of Amsterdam)最新研究却颠覆这种看法。研究团队发现,即使完全移除算法,社交媒体互动依旧会自然走向极化。换句话说,问题恐怕不是“算法造的孽”,而是“人性与注意力动态”本身就容易导致分裂。
研究团队创建了一个“干净版”社交媒体平台,没有广告与算法推送,仅保留基本的发文、留言与互动功能。他们创建了500名虚拟用户,并通过GPT-4o mini、Llama-3.2-8B、DeepSeek-R1等大型语言模型模拟人类行为,政治倾向则依据“美国国家选举研究”数据设置,确保修户立场分布接近现实社会。
在这个环境中,AI用户随机发文与回应,经过一万次互动循环后,平台自然产生了熟悉的现象:同温层效应越来越明显、少数账号逐渐垄断舆论,讨论语气也越来越偏激。这意味着,就算没有算法推送,“同温层”还是存在,社交媒体架构与人性本身仍会带来分化。
结果显示,即便完全没有算法介入,平台依旧出现三种现象:
同温层效应:用户倾向只与立场相同者互动。
权力集中:少数账号逐渐垄断舆论。
极端化倾向:讨论语气随时间越来越激烈。
研究者接着尝试六种干预,包括改用时间排序、强制推送对立观点、降低热门账号曝光等,但结果不仅没解决极化,有些甚至让对立更严重。学者直言,这显示“人性与社交媒体的注意力机制之间存在共振”,平台架构本身就可能具备毒性。
不过,学界对这项研究仍有不同解读。其他大学的研究人员提醒,这些AI模型本身的训练数据可能就含有偏见,因此模拟结果未必完全客观。而纽约大学的学者则认为,虽然没有单一的简单解决方案,但若用户愿意发布更多中立或跨立场的内容,或许能在一定程度上减缓对立。
总体来看,这份研究打破了“算法是万恶之源”的单一说法,指出社交媒体极化更可能是人性、群体互动与注意力竞争交织的结果。专家呼吁,未来若要改善社交媒体的分裂,不能只期待调整算法,而是必须从教育、媒体识读以及政策层面多管齐下,才能真正降低社交媒体对立。