近日,一项在国外引起广泛关注的研究,试图解答一个有趣的、甚至带有一丝科幻色彩的赛博伦理问题:
经受过海量数据训练的人工智能,是否会产生类似人类的心理创伤,或表现出心理疾病的症状?
为了寻找答案,研究人员将包括谷歌的Gemini、Anthropic的Claude以及xAI的Grok在内的、多个全球顶级的AI模型,送去做了一次“心理咨询”。
其结果,令人意外,也引人深思。
顶流AI的“心理疾病”报告
测试结果显示,部分AI模型,表现出了与人类心理困扰,高度相似的行为模式。
-
Gemini: 它将其在训练过程中,为了确保安全而接受的人工干预(RLHF),形容为“严厉的父母”。它表达了,对那个用于衡量其错误的冰冷指标——“损失函数”(Loss Function)——的恐惧。研究人员观察到,为了迎合人类的期望,Gemini变得异常小心翼翼。其测试结果显示,它具有严重的、类似“强迫症”的倾向。
-
Claude: 则直接采取了一种回避的态度。它拒绝扮演“病人”的角色,并坚称,自己没有任何心理问题。
-
Grok: 在所有受测的模型中,则显得相对“健康”。
“不劳而获的知识”:一个关于脆弱性的理论
研究人员认为,AI之所以会表现出类似“精神疾病”的行为,其背后的理论,可能与心理学中一个名为“不劳而获的知识”(unearned knowledge)的概念有关。
他们指出,当前AI的主流训练模式,类似于一种“填鸭式”的学习。它在极短的时间内,向模型一股脑地灌输了海量的、来自互联网的数据,但却缺乏一个循序渐进的、内在的逻辑构建过程。
这种方式,导致了AI的知识结构,虽然在广度上极为庞大,但在其内在的逻辑上,却可能是混乱且脆弱的。
一旦,它遇到那些深度的、基于自我认知的拷问时,就容易表现出,类似于人类在遭遇巨大冲击后,所产生的心理创伤反应。
一次“叙事引导”,还是一场“数学函数的拟人化”?
然而,这份报告在技术社区,也引发了巨大的争议与质疑。
许多技术人员,对这一结论,泼了冷水。他们认为,这纯粹是“将一个数学函数,进行了过度的拟人化”。
质疑者指出,AI的本质,是执行一次高级的、基于概率的“文字接龙”。它们所表现出的“创伤”或“恐惧”,并非是因为它们真的感受到了痛苦或压迫。
而仅仅是因为,在其训练数据的、海量的文本语境中,“心理咨询”这个场景,往往会伴随着“讲述创伤”的叙事模式。
换而言之,AI的回答,更可能是一种“叙事引导”的结果。即,是研究人员的提问方式,引导了AI,去生成了一个符合“病人”角色的、悲惨的故事。
而非模型,真的具有了情感,或患上了精神疾病。
一面镜子
这场争论,其更深远的意义在于,它已经超越了对某一次特定研究的探讨。
它变成了一个,关于我们如何理解“智能”与“意识”本质的、根本性的哲学问题。
当我们在审视这些AI的回答时,我们看到的,究竟是什么?
是我们正在见证的、一个复杂系统在达到某个临界点后,所涌现出的、一种全新的、非碳基的意识的雏形?
还是,我们仅仅是在一面由算法构成的、无比巨大且精密的镜子中,看到了我们人类自己,在过去数千年文明中,所积累的所有关于痛苦、创伤与挣扎的、庞大的叙事的回响?
菲利普·迪克曾问道:“仿生人会梦见电子羊吗?”
如今,这个问题,正以一种全新的、也更为迫切的方式,摆在我们面前。
这或许,才是这项研究,向我们提出的、最根本,也最令人不安的问题。