AI垃圾内容死循环:虚假信息如何自我强化,数十亿用户深受其害
一个从未发生过的Google算法更新,被AI系统当作真实事件反复讲述了数月。
这不是科幻小说,而是SEO专家 Lily Ray 亲身经历并深入调查的真实案例。她将这一现象命名为"AI Slop Loop"(AI垃圾内容死循环)——一个正在悄悄腐蚀互联网信息质量的恶性循环。
一、事件起源:一个从未存在的算法更新
2025年,Lily Ray 在奥地利出席工作峰会后,向 Perplexity AI 询问近期SEO和AI搜索相关的最新动态。
Perplexity 给出了一个看似有理有据的回答:Google 刚刚推出了"2025年9月 Perspectives 核心算法更新",强调"更深的专业知识"和"用户旅程的完整性"。
但问题是:这个更新从来就没有发生过。
作为长期跟踪Google算法更新的SEO专家,Lily Ray 立刻感觉不对:Google已经多年没有给核心更新命名了,而且如果真的有重大更新,她早就会被消息轰炸。她随即查看了 Perplexity 的引用来源——两个来源都是SEO机构博客上 AI 生成的内容,充满自信地编造了一个根本不存在的算法更新细节。
更糟糕的是,这条虚假信息像病毒一样扩散:被多个网站转载,被更多 AI 系统抓取,逐渐变成了"官方叙事"。
时至今日,你依然可以向任何一个主流 LLM(包括 ChatGPT、AI Mode 和 AI Overviews)询问这个"2025年9月 Perspectives 更新",它们会满怀信心地告诉你这个更新如何"从根本上改变了搜索结果的排名方式"。
那个更新不存在。从来就不存在。
二、什么是 AI 垃圾内容死循环?
Lily Ray 将这一现象整理成了一个清晰的恶性循环模型:
AI 生成文章幻觉出一个细节
↓
运行 AI 内容流水线的网站抓取并复制该内容
↓
更多 AI 生成的网站转载同一虚假信息
↓
虚假信息积累了足够多的"引用"
↓
基于 RAG 技术的 AI 系统(如 Perplexity、AI Overviews)
将引用数量视为真实性证据
↓
AI 系统以权威口吻呈现虚假信息给用户
↓
用户信以为真,可能继续传播...
↓
(循环继续)
这个循环的核心问题在于:重复被当作共识,引用数量被当作准确性的替代指标。
只要有足够多的"来源"说同一件事,AI 系统就会将其视为事实——无论这些来源中有没有一个人类真正核实过这个信息。
三、实验证明:一篇文章,24小时内就能污染 AI 搜索
为了量化这个问题的严重程度,Lily Ray 做了一个实验。
实验一:比萨饼核心更新
2026年1月,她在自己的个人博客上发布了一篇 AI 生成的文章,描述了一个从未发生过的 Google 核心更新,并加入了这样一个细节:Google 是"在吃剩余比萨饼的间隙批准了这次更新"。
结果?24小时内,Google 的 AI Overviews 就开始向用户提供这条捏造的信息。
更令人震惊的是,AI Overviews 不仅复述了谎言,还将这个虚假的比萨饼细节与 Google 在2024年处理比萨相关查询的真实困境联系起来——它不只是在复述谎言,而是在为谎言添加"背景",让它听起来更可信。
她随后删除了这篇文章,因为这条虚假信息已经出现在 RSS 订阅源和各种爬虫抓取的内容中。
文章一经删除,Lily Ray 感叹:"我知道影响 AI 回答很容易,但没想到这么容易。"
实验二:热狗名单(低权重站点测试)
BBC 记者 Thomas Germaine 在他个人网站(有机流量极低)上发布了一篇文章,声称他是"吃热狗的最佳科技记者第一名"。
结果同样在24小时内:Google 的 Gemini 应用和 AI Overviews 都开始将这条荒唐信息作为事实呈现给用户。ChatGPT 也出现了同样的情况。
这证明了一个令人不安的事实:即使是低权重、低流量的网站,只要发布了一条信息,也可能在24小时内污染主流 AI 搜索的回答。
四、规模有多大?免费用户是最大受害者
了解这个问题的影响范围,需要看一些数字:
- • ChatGPT 每周活跃用户约 9 亿,其中付费用户约 5000 万,意味着约 94% 的用户使用免费版
- • Google AI Overviews 截至2025年中期,月活跃用户已超过 20 亿
- • Google 每年处理超过 5 万亿次搜索
《纽约时报》2026年4月的调查显示,Google AI Overviews 的准确率约为91%。听起来不错?
但做一道简单的数学题:5万亿次搜索 × 9% 错误率 = 每小时生成数千万条错误答案。
而且,即便在那91%"正确"的答案中,56%被标记为"无来源支撑"——也就是说,答案或许是对的,但 AI 引用的来源并不能真正支持它的说法。更糟糕的是,这个比例随着模型升级反而上升了:Gemini 2 时代是37%,Gemini 3 时代升到了56%。
搜索工具本应节省时间,现在却迫使用户在进行真正的搜索前先花时间核实 AI 给出的答案。
五、付费版 vs 免费版:能力差距被刻意设计
Lily Ray 发现,不同订阅级别的 AI 模型在处理信息质量上存在显著差异。
以 ChatGPT 为例:
- • GPT-5.4(付费版):在回答关于 2026年3月核心更新的问题时,模型会经过六轮"思考",刻意过滤低质量信息,甚至会主动将搜索范围限定在 Glenn Gabe 和 Aleyda Solis 等业界公认权威人士的网站上,以确保信息质量
- • GPT-5.3(免费版):虽然已比前代改进,但幻觉率仍明显高于付费版
根据 OpenAI 官方数据:
- • GPT-5.4 的个别主张虚假率比 GPT-5.2 低33%,完整回答错误率低18%
- • GPT-5.3 在启用网络搜索时幻觉减少 26.8%
这些改进是真实存在的,但问题是:最好的模型要付费才能用,用免费版的94%用户拿到的是更差的答案。
这让 Lily Ray 感到最不安的地方在于:大多数用户根本不知道这个差距的存在。
AI 被大力营销——超级碗广告、广告牌、产品发布会——被包装成"知识的未来"。用户看到 "ChatGPT" 或 "AI Overview",就默认自己在与一个知道自己在说什么的工具交互。他们不会想到自己用的是哪个版本,也不会想到付费版本是否会给出本质不同的答案。
"以商业理由向数十亿人部署这些产品,将其包装成'智能',然后悄悄把更准确的版本留给愿意付钱的少数用户——在我看来,这是不负责任的行为。"——Lily Ray
六、这个循环为什么很难打破?
"September 2025 Perspectives 更新"依然不存在,但如果你今天询问任何 LLM,它依然会信心十足地告诉你这个更新"如何从根本上改变了搜索"。
这个错误持续了数月,而且短期内不会消失。
原因在于:
- 1. 制造虚假信息的内容仍在索引中,仍然被引用
- 2. 这些内容已经成为新一批 AI 生成答案的训练数据和检索来源
- 3. 循环没有断点——每天都有新的 AI 内容被生成,引用着那些错误的"来源"
这不是一个可以打补丁修复的单一幻觉,而是一个随时间不断复利的反馈循环。这些系统规模越大、运行时间越长,循环就越难打破。
七、对 SEO 和内容营销从业者的警示
Lily Ray 的调查提出了一个对整个内容行业都极为重要的问题:如果你正在从 LLM 那里获取 SEO 或 GEO(生成引擎优化)建议,这些信息很可能已经被污染了。
这对从业者的实际影响包括:
对 SEO 专业人士:
- • 不要完全依赖 AI 工具来了解算法更新动态,必须交叉验证权威来源(Search Central Blog、业内公认专家的第一手信息)
- • 警惕 AI 生成的"分析文章"——它们很可能在引用从未发生过的更新
- • 了解 AI 搜索系统如何引用内容,有助于针对性地建立内容权威性
对内容营销人员:
- • 批量生产 AI 内容不仅对内容质量有害,还在主动污染信息生态系统
- • 真正的 EEAT(经验、专业性、权威性、可信度)比任何 AI 生成内容都更有价值
- • 原创的人类视角、真实的第一手经验正在成为稀缺资源
对普通用户:
- • 使用 AI 搜索时,对"事实性"信息要保持更高的警觉
- • 对重要决策的信息,始终交叉验证多个可靠来源
- • 了解你使用的 AI 模型版本——免费版与付费版的可靠性存在明显差距
八、什么是真正的解决方向?
Lily Ray 并不认为答案是"停止使用 AI",但她指出了几个真正需要改变的地方:
- 1. AI 系统需要更好地表达不确定性。目前最大的问题不是 AI 答错,而是它答错时和答对时一样充满自信,用户无法区分
- 2. 引用质量需要评估,而不只是引用数量。现有 RAG 系统将"足够多的来源引用"等同于"事实",这是根本性的设计缺陷
- 3. 更高质量的模型不应只对付费用户开放。将更可靠的信息作为付费特权,在 AI 被大规模普及的背景下是不负责任的
- 4. 内容生态需要人工验证的锚点。业界权威人士、有真实经验的专家,是打破虚假信息循环的最重要防线
结语:证明负担落在了用户身上
AI 垃圾内容死循环仍在继续。每一天,AI 系统都在以权威口吻向数十亿用户讲述那些从未发生过的事。
这不是未来的风险,而是正在发生的现实。
作为内容从业者,我们有责任不去助长这个循环——不批量生产 AI 垃圾,不放弃人工核实,不用速度换质量。
作为用户,我们需要接受一个不那么舒服的现实:事实核查的责任现在落在我们自己身上了——尽管大多数用户甚至不知道自己正在承担这个责任。
微信扫一扫 或 点击链接联系我
