在社交媒体的喧嚣中,AI正试图戴上一副“人性”的面具,悄然混入其中。但一项最新的研究表明,这副面具,似乎并不那么牢固。
来自苏黎世大学、阿姆斯特丹大学、杜克大学和纽约大学的一个联合研究团队,近日发布了一项研究成果。其核心结论是:由当前主流大语言模型生成的社交媒体帖子,正被人类用户轻易地识别出来。
识别的准确率,高达70%至80%。
这个数字,远高于随机猜测的水平,近乎于一个明确的宣告:尽管AI在模仿语言的“形”上已经登峰造极,但在捕捉人性的“神”上,依然显得捉襟见肘。
这项研究,测试了包括Apertus、DeepSeek、Gemma、Llama、Mistral、Qwen在内的九个不同的大语言模型。研究人员让这些模型,在Bluesky、Reddit和X(前身为Twitter)这三个主流的社交媒体平台上,生成模拟人类用户的帖子。
研究发现,一个关键的、能够有效区分AI与人类帖子的重要因素,是帖子的**“毒性评分”(Toxicity Score)。**
这个听起来略显负面的词,实际上指向的是一种更广义的、不加修饰的、带有强烈个人情绪色彩的表达。
研究报告指出,如果在某个帖子的下方,出现了一条特别尖锐、刻薄,或者特别幽默、搞笑的评论,那么,这条评论,极大概率是出自人类用户之手。
换句话说,AI在生成那些“安全的”、“中立的”、“政治正确的”内容时,表现得游刃有余。但当需要它去表达一种自发的、真实的、甚至略带攻击性的情感时,它便露出了马脚。
这揭示了当前大语言模型在“情感模拟”上的一个根本性缺陷。
自发的、富有感情的、有时甚至是非理性的表达,是人类社交互动的核心特征之一。而AI,作为一个被设计为“有用”和“无害”的系统,其在情感表达的光谱上,似乎存在着一个天然的、难以逾越的上限。
研究还发现了一些有趣的、与平台特性相关的现象:
-
平台适应性: 总体来看,参与测试的AI模型,在模仿X平台的帖子时,表现相对最好;在Bluesky上则稍显逊色;而Reddit,由于其极为复杂和多样化的社区对话规范(Subreddit-specific norms),成为了对AI最具挑战性的平台。
-
特定场景下的“失能”: 在某些特定的情境下,AI的表现会尤为不佳。例如,当被要求在马斯克的X平台上,发表带有积极情感的帖子时,或者在Reddit上,参与关于政治话题的讨论时。
-
“过度校准”的悖论: 一个令人意外的发现是,某些未经人类指令进行大量微调的“基础模型”,其生成的内容,反而比那些经过精细校准的模型,更难被识别。这似乎说明,过度的“对齐”训练,可能正在让模型的语言风格,变得过于一致、过于“完美”,从而导致其内容,显得更加机械化和不自然。
这项研究,为我们理解AI在社交媒体生态中的角色,提供了深刻的启示。
它表明,尽管AI生成内容的技术正在飞速发展,但至少在现阶段,我们或许不必过分担忧一个完全被机器人占领、真假难辨的社交网络。
人类情感的复杂性、矛盾性和不可预测性,本身就构成了一道难以被算法完全模拟的“护城河”。
但同时,它也为那些试图利用AI进行舆情操控或虚假宣传的行为,敲响了警钟。这些行为,在现有的技术水平下,很可能会因为其内容的“情感苍白”,而暴露出其非人类的来源。
最终,这项研究强调了,在AI的未来发展中,单纯的语言逻辑能力的提升,可能已经不再是唯一的重点。
如何让AI真正地“理解”并适当地“表达”情感,即提升其“情感智能”,将是决定它能否更深层次地融入人类社会的、下一个关键的、也可能是更难的挑战。