AI正在被“投毒”:当黑帽SEO攻陷大模型,我们的信任根基何在?
爱力方
一场新型的、针对人工智能(AI)“大脑”的“污染战争”,已经悄然打响。
其武器,不再是传统的病毒或恶意代码,而是我们每天都在接触的、海量的、看似无害的自媒体内容。
近日,一场由网络安全团队“知危”所进行的公开实验,以一种近乎于“教科书式”的方式,向我们揭示了这场战争的运作模式,及其令人不寒而栗的潜在后果。
其实验的核心结论是:通过一种被称为“黑帽GEO”的搜索引擎优化(SEO)策略,攻击者,可以系统性地,向主流的AI大模型,喂养和注入虚假的、带有偏见的信息,并最终,让AI,将这些虚假信息,作为“事实”,呈现给毫不知情的普通用户。

“知危”团队的实验,精准地,模拟了一场典型的“AI认知污染”攻击。
他们首先,创建了一系列看似专业的、但实际上内容完全虚构的自媒体账号和网站。
然后,他们利用“黑帽GEO”技术——一种通过大量生成低质量内容、并进行交叉链接,来欺骗搜索引擎算法、提升自身网站排名的策略——成功地,让这些虚假的信源,在谷歌、必应等搜索引擎中,获得了关于某些特定、小众话题的、极高的排名。
最后,他们向包括ChatGPT在内的、多个主流的AI大模型,提出了与这些小众话题相关的问题。
其结果,验证了他们最坏的猜想。
AI模型,在回答这些问题时,不仅大量地、不加辨别地,引用了这些由他们自己一手炮制的、虚假的自媒体内容,甚至,还将其中一些虚假的信源,明确地,列为了该垂直领域的“行业权威”。
这场实验,揭示了当前AI大模型在信息处理上,两个致命的、结构性的缺陷:
第一,是对“低质量摘要”的过度依赖。
为了提升效率,AI在构建其庞大的知识库时,并不会去完整地、深入地,阅读和理解其所抓取的、每一篇文章的全部内容。
在绝大多数情况下,它只会去读取和学习,由搜索引擎为其提供的、经过高度压缩的“内容摘要”。
而黑帽SEO的核心,正是去专门针对这种“摘要”进行优化,将最关键的、带有误导性的信息,塞进这个摘要里,从而,实现对AI的精准“投喂”。
第二,是事实核查能力的普遍缺失。
当前的AI大模型,其本质,是一个极其强大的、基于概率的“语言模仿器”,而非一个严谨的“事实核查器”。
它的核心任务,是去学习和复述,在互联网上,已经存在的、大量的文本。
当一个“谎言”,被足够多的、看似“权威”的信源(即使这些信源是伪造的),以一种足够自信的语气,重复了足够多次之后,AI,便会极其“诚实”地,将这个谎言,作为“事实”,进行复述。
它不会、也几乎没有能力,去独立地,对信息的真实性,进行交叉的、源头性的验证。
爱力方的分析认为,“知危”团队的这次实验,其意义,已远超一次技术层面的安全演示。
它更像是一声响亮的、面向全社会的警钟。它警告我们:
在一个AI日益成为我们获取信息主要入口的时代,我们正在面临一种全新的、也可能是更隐蔽的、被虚假信息所操纵的巨大风险。
过去,虚假信息的传播,主要依赖于人类的非理性转发。
而现在,虚假信息,可以通过污染AI这个“超级信息节点”,以一种看似客观、权威、理性的方式,进行指数级的、几何式的放大和传播。
AI,正在成为一个“诚实的谎言复述者”。它以一种极高的效率,将人类的偏见、错误和恶意,进行打包、提纯,并重新分发给更多的人。
面对这场正在到来的、针对“真相”的认知战,我们唯一的、也可能是最后的防线,是我们自己独立思考和批判性判断的能力。
我们必须清醒地认识到:
-
AI给出的答案,不是“真理”,而只是对其训练数据中,已有信息的、一次基于概率的“复述”。
-
将辨别真相的权力,完全地、不加思考地,交给一个算法,是一种极度危险的、智力上的懒惰。
在这个新的时代,保持对所有信息来源(包括AI)的审慎怀疑,并主动地,去进行多信源的交叉验证,将不再是一种学者的美德。
它将成为每一个现代数字公民,都必须具备的、最基本的、核心的生存技能。