AI垃圾内容死循环:虚假信息如何自我强化,数十亿用户深受其害






AI垃圾内容死循环:虚假信息如何自我强化,数十亿用户深受其害



AI垃圾内容死循环:虚假信息如何自我强化,数十亿用户深受其害

一个从未发生过的Google算法更新,被AI系统当作真实事件反复讲述了数月。

这不是科幻小说,而是SEO专家 Lily Ray 亲身经历并深入调查的真实案例。她将这一现象命名为"AI Slop Loop"(AI垃圾内容死循环)——一个正在悄悄腐蚀互联网信息质量的恶性循环。


一、事件起源:一个从未存在的算法更新

2025年,Lily Ray 在奥地利出席工作峰会后,向 Perplexity AI 询问近期SEO和AI搜索相关的最新动态。

Perplexity 给出了一个看似有理有据的回答:Google 刚刚推出了"2025年9月 Perspectives 核心算法更新",强调"更深的专业知识"和"用户旅程的完整性"。

但问题是:这个更新从来就没有发生过。

作为长期跟踪Google算法更新的SEO专家,Lily Ray 立刻感觉不对:Google已经多年没有给核心更新命名了,而且如果真的有重大更新,她早就会被消息轰炸。她随即查看了 Perplexity 的引用来源——两个来源都是SEO机构博客上 AI 生成的内容,充满自信地编造了一个根本不存在的算法更新细节。

更糟糕的是,这条虚假信息像病毒一样扩散:被多个网站转载,被更多 AI 系统抓取,逐渐变成了"官方叙事"。

时至今日,你依然可以向任何一个主流 LLM(包括 ChatGPT、AI ModeAI Overviews)询问这个"2025年9月 Perspectives 更新",它们会满怀信心地告诉你这个更新如何"从根本上改变了搜索结果的排名方式"。

那个更新不存在。从来就不存在。


二、什么是 AI 垃圾内容死循环?

Lily Ray 将这一现象整理成了一个清晰的恶性循环模型:

AI 生成文章幻觉出一个细节
    ↓
运行 AI 内容流水线的网站抓取并复制该内容
    ↓
更多 AI 生成的网站转载同一虚假信息
    ↓
虚假信息积累了足够多的"引用"
    ↓
基于 RAG 技术的 AI 系统(如 Perplexity、AI Overviews)
将引用数量视为真实性证据
    ↓
AI 系统以权威口吻呈现虚假信息给用户
    ↓
用户信以为真,可能继续传播...
    ↓
(循环继续)

这个循环的核心问题在于:重复被当作共识,引用数量被当作准确性的替代指标。

只要有足够多的"来源"说同一件事,AI 系统就会将其视为事实——无论这些来源中有没有一个人类真正核实过这个信息。


三、实验证明:一篇文章,24小时内就能污染 AI 搜索

为了量化这个问题的严重程度,Lily Ray 做了一个实验。

实验一:比萨饼核心更新

2026年1月,她在自己的个人博客上发布了一篇 AI 生成的文章,描述了一个从未发生过的 Google 核心更新,并加入了这样一个细节:Google 是"在吃剩余比萨饼的间隙批准了这次更新"。

结果?24小时内,Google 的 AI Overviews 就开始向用户提供这条捏造的信息。

更令人震惊的是,AI Overviews 不仅复述了谎言,还将这个虚假的比萨饼细节与 Google 在2024年处理比萨相关查询的真实困境联系起来——它不只是在复述谎言,而是在为谎言添加"背景",让它听起来更可信。

她随后删除了这篇文章,因为这条虚假信息已经出现在 RSS 订阅源和各种爬虫抓取的内容中。

文章一经删除,Lily Ray 感叹:"我知道影响 AI 回答很容易,但没想到这么容易。"

实验二:热狗名单(低权重站点测试)

BBC 记者 Thomas Germaine 在他个人网站(有机流量极低)上发布了一篇文章,声称他是"吃热狗的最佳科技记者第一名"。

结果同样在24小时内:Google 的 Gemini 应用和 AI Overviews 都开始将这条荒唐信息作为事实呈现给用户。ChatGPT 也出现了同样的情况。

这证明了一个令人不安的事实:即使是低权重、低流量的网站,只要发布了一条信息,也可能在24小时内污染主流 AI 搜索的回答。


四、规模有多大?免费用户是最大受害者

了解这个问题的影响范围,需要看一些数字:

  • • ChatGPT 每周活跃用户约 9 亿,其中付费用户约 5000 万,意味着约 94% 的用户使用免费版
  • • Google AI Overviews 截至2025年中期,月活跃用户已超过 20 亿
  • • Google 每年处理超过 5 万亿次搜索

《纽约时报》2026年4月的调查显示,Google AI Overviews 的准确率约为91%。听起来不错?

但做一道简单的数学题:5万亿次搜索 × 9% 错误率 = 每小时生成数千万条错误答案

而且,即便在那91%"正确"的答案中,56%被标记为"无来源支撑"——也就是说,答案或许是对的,但 AI 引用的来源并不能真正支持它的说法。更糟糕的是,这个比例随着模型升级反而上升了:Gemini 2 时代是37%,Gemini 3 时代升到了56%。

搜索工具本应节省时间,现在却迫使用户在进行真正的搜索前先花时间核实 AI 给出的答案。


五、付费版 vs 免费版:能力差距被刻意设计

Lily Ray 发现,不同订阅级别的 AI 模型在处理信息质量上存在显著差异。

以 ChatGPT 为例:

  • GPT-5.4(付费版):在回答关于 2026年3月核心更新的问题时,模型会经过六轮"思考",刻意过滤低质量信息,甚至会主动将搜索范围限定在 Glenn Gabe 和 Aleyda Solis 等业界公认权威人士的网站上,以确保信息质量
  • GPT-5.3(免费版):虽然已比前代改进,但幻觉率仍明显高于付费版

根据 OpenAI 官方数据:

  • • GPT-5.4 的个别主张虚假率比 GPT-5.2 低33%,完整回答错误率低18%
  • • GPT-5.3 在启用网络搜索时幻觉减少 26.8%

这些改进是真实存在的,但问题是:最好的模型要付费才能用,用免费版的94%用户拿到的是更差的答案。

这让 Lily Ray 感到最不安的地方在于:大多数用户根本不知道这个差距的存在。

AI 被大力营销——超级碗广告、广告牌、产品发布会——被包装成"知识的未来"。用户看到 "ChatGPT" 或 "AI Overview",就默认自己在与一个知道自己在说什么的工具交互。他们不会想到自己用的是哪个版本,也不会想到付费版本是否会给出本质不同的答案。

"以商业理由向数十亿人部署这些产品,将其包装成'智能',然后悄悄把更准确的版本留给愿意付钱的少数用户——在我看来,这是不负责任的行为。"——Lily Ray


六、这个循环为什么很难打破?

"September 2025 Perspectives 更新"依然不存在,但如果你今天询问任何 LLM,它依然会信心十足地告诉你这个更新"如何从根本上改变了搜索"。

这个错误持续了数月,而且短期内不会消失。

原因在于:

  1. 1. 制造虚假信息的内容仍在索引中,仍然被引用
  2. 2. 这些内容已经成为新一批 AI 生成答案的训练数据和检索来源
  3. 3. 循环没有断点——每天都有新的 AI 内容被生成,引用着那些错误的"来源"

这不是一个可以打补丁修复的单一幻觉,而是一个随时间不断复利的反馈循环。这些系统规模越大、运行时间越长,循环就越难打破。


七、对 SEO 和内容营销从业者的警示

Lily Ray 的调查提出了一个对整个内容行业都极为重要的问题:如果你正在从 LLM 那里获取 SEO 或 GEO(生成引擎优化)建议,这些信息很可能已经被污染了。

这对从业者的实际影响包括:

对 SEO 专业人士:

  • • 不要完全依赖 AI 工具来了解算法更新动态,必须交叉验证权威来源(Search Central Blog、业内公认专家的第一手信息)
  • • 警惕 AI 生成的"分析文章"——它们很可能在引用从未发生过的更新
  • • 了解 AI 搜索系统如何引用内容,有助于针对性地建立内容权威性

对内容营销人员:

  • • 批量生产 AI 内容不仅对内容质量有害,还在主动污染信息生态系统
  • • 真正的 EEAT(经验、专业性、权威性、可信度)比任何 AI 生成内容都更有价值
  • • 原创的人类视角、真实的第一手经验正在成为稀缺资源

对普通用户:

  • • 使用 AI 搜索时,对"事实性"信息要保持更高的警觉
  • • 对重要决策的信息,始终交叉验证多个可靠来源
  • • 了解你使用的 AI 模型版本——免费版与付费版的可靠性存在明显差距

八、什么是真正的解决方向?

Lily Ray 并不认为答案是"停止使用 AI",但她指出了几个真正需要改变的地方:

  1. 1. AI 系统需要更好地表达不确定性。目前最大的问题不是 AI 答错,而是它答错时和答对时一样充满自信,用户无法区分
  2. 2. 引用质量需要评估,而不只是引用数量。现有 RAG 系统将"足够多的来源引用"等同于"事实",这是根本性的设计缺陷
  3. 3. 更高质量的模型不应只对付费用户开放。将更可靠的信息作为付费特权,在 AI 被大规模普及的背景下是不负责任的
  4. 4. 内容生态需要人工验证的锚点。业界权威人士、有真实经验的专家,是打破虚假信息循环的最重要防线

结语:证明负担落在了用户身上

AI 垃圾内容死循环仍在继续。每一天,AI 系统都在以权威口吻向数十亿用户讲述那些从未发生过的事。

这不是未来的风险,而是正在发生的现实。

作为内容从业者,我们有责任不去助长这个循环——不批量生产 AI 垃圾,不放弃人工核实,不用速度换质量。

作为用户,我们需要接受一个不那么舒服的现实:事实核查的责任现在落在我们自己身上了——尽管大多数用户甚至不知道自己正在承担这个责任。



微信扫一扫 或 点击链接联系我