史丹佛大学等机构的研究显示,截至2025年中,超过35%的新网站由AI辅助或生成。AI内容导致了表达方式的单一化和过度虚假的积极情绪,这正引发互联网“模型崩溃”的深层危机。

长期以来,关于“死掉的互联网”的阴谋论在坊间流传。支持者认为,如今的互联网已经不再是人类互动的空间,而是充斥着僵尸账号、机器人流量和虚假信息。最近,来自史丹佛大学、伦敦帝国学院以及互联网档案馆的一项联合研究,首次为这种担忧提供了量化的数据依据。

研究人员利用互联网档案馆的往返时光机获取了从2022年(ChatGPT引发AI热潮的起点)到2025年中的网页快照。通过名为Pangram v3的AI文本检测工具进行分析后发现,截至2025年5月,全网新发布的网站中,有35.3%是在AI协助下创建的,其中完全由AI生成的网站比例达到了17.6%。

这一惊人的扩张速度意味着,在短短不到3年的时间里,原本由人类定义的互联网世界正被算法迅速改写。数据安全公司Imperva早在2024年的报告中就指出,自动化冲浪量已经历史上首次超过了人类活动,占到了网络总流量的一半左右。Cloudflare的调查也证实,约1/3的流量是由机器人驱动的。

这些由AI批量制造的网站究竟带来了什么?研究团队测试了美国公众普遍持有的6个负面假设,结果发现只有2个得到了数据支持。

首先是表达方式的“语义收缩”。研究发现,AI生成的网站在语义相似度上比人类撰写的网站高出33%。由于大语言模型在优化输出时倾向于选择最接近训练数据分布的结果,导致表达方式变得极度雷同。这种现象被称为“奥弗顿之窗”的缩小:互联网上的想法虽然看起来很多,但核心观点和表达逻辑却在向中庸、标准化的方向靠拢,失去了人类写作中那种独特的视角和多元化的思想碰撞。

其次是“虚假的积极”。数据统计显示,AI内容的正面情绪评分比人类内容高出107%。这种被研究者称为“献媚倾向”的现象,源于模型在训练过程中过度追求符合人类的审美偏好。结果就是,AI生成的文字往往显得过度卫生、缺乏摩擦力,且带有一种机械式的欢快感。这种看似完美的文字其实是在抹杀人类表达中的真实情感和异见。

然而,研究也打破了一些刻板印象。出人意料的是,AI生成的内容在事实准确性方面并没有人们想象中那么糟糕。它们通常会标注外部链接来源,且并没有完全抹杀个人写作风格,转化为一种完全统一的“通用腔调”。尽管83%的受访者担心AI会让文字风格变得单一,但字符层面的分析显示,这种风格同质化的趋势目前尚不明显。

这些“僵尸内容”的泛滥不仅仅影响读者的阅读体验。研究者提出了一个更具毁灭性的风险:模型崩溃。当互联网上35%的内容都由AI生成时,下一代AI模型的训练将不可避免地摄入这些已经过过滤和简化的数据。如果AI开始学习AI制造的内容,其逻辑能力和表达的多样性将呈螺旋式下降,最终导致整个系统的崩溃。

除了内容质量的下降,AI工具也被广泛应用于垃圾网站和诈骗行为。诈骗者利用AI快速生成虚假网站诱导受害者,一些专门用于搜索引擎优化(SEO)的垃圾网站也层出不穷,其唯一目的就是通过海量内容抓取流量。更有甚者,一些受特定利益集团支持的组织,利用AI产生大量“新闻”稿件来攻击竞争对手。

目前,研究团队正致力于将这项研究转化为一个持续的实时监测工具。OpenAI的首席执行官Sam Altman也曾坦言,社交媒体上的一些赞美之词看起来确实带有机器人驱动的痕迹。随着互联网生态的演变,分辨真实信息与算法造物的界限正变得越来越模糊。17.6%的“死亡率”或许只是个开始,我们正处于一个信息分水岭上,未来的互联网将如何在人类的创造力与机器的效率之间寻找平衡,依然是一个悬而未决的难题。

本文译自 gizmodo,由 BALI 编辑发布。