当你向ChatGPT提出同一个新闻相关的问题时,你所得到的答案,可能取决于你使用的是哪个“门”——是官方的网页聊天界面,还是面向开发者的API接口。
来自德国汉堡大学和莱布尼茨媒体研究所的一项最新研究,揭示了ChatGPT在新闻推荐上,存在着一种令人不安的、系统性的“人格分裂”。
这项为期五周、分析了超过24,000个AI回答的研究,为我们窥探AI这个“信息黑箱”的内部运作,提供了一个罕见而关键的窗口。

研究的核心发现,是ChatGPT在网页界面和API接口两种模式下,其引用的信息来源,存在着显著的、无法用随机性来解释的差异。
网页界面,更像一个“传统媒体的拥护者”。
它更倾向于引用那些广为人知的、主流的传统新闻媒体的内容。
以德国市场为例,保守派的小报网站welt.de和bild.de,在网页界面的引用率高达13%。而德国最主流的公共新闻网站tagesschau.de,也在这里获得了极高的曝光率。
研究数据显示,网页界面引用的媒体来源,与《路透社数字新闻报告2025》中列出的主流媒体,其重合率达到了45.5%。
API接口,则更像一个“技术宅与维基百科爱好者”。

当用户通过API提问时,得到的回答,会明显更多地引用非新闻类的来源,尤其是维基百科,以及一些小众的、专注于特定技术领域的网站。
前述的welt.de和bild.de,在API中的引用率,骤降至仅2%。
API引用的媒体来源,与《路透社数字新闻报告》的主流媒体重合率,也相应地下降到了27.3%。
这种差异,不仅仅是来源类型的不同,更可能导向信息茧房的加剧和潜在的偏见风险。
研究人员发现,当用户明确要求ChatGPT提供“更广泛”或“多样化”的来源时,系统虽然会增加引用来源的数量,但这种数量上的“多样性”,并不总能保证信息质量的提升。
在某些情况下,这种要求,甚至会导致系统去引用一些带有明显政治偏见、甚至被定性为宣传性质的网站。
更令人警惕的是,研究指出,系统在某些时候,甚至会链接到一些完全虚假的、或根本不存在的域名。
这项研究,最终指向了一个更为根本性的问题:AI信息分发机制的极度不透明性。
OpenAI方面,并未对网页界面与API接口之间存在这种推荐差异的原因,给出任何官方的解释。
是由于两者背后连接的模型版本不同?还是由于应用了不同的、针对性的过滤或推荐算法?外界无从得知。
研究报告强调,用户必须意识到,他们是在与一个会“在不发出任何通知的情况下,定期进行系统性更改”的黑箱进行互动。
今天你获得答案所依据的逻辑,明天可能就已截然不同。
这一现象,也深刻地揭示了生成式AI搜索工具,与传统搜索引擎在信息分发逻辑上的根本性区别。
传统搜索引擎,其结果的排序,虽然也受到复杂算法的影响,但其基本逻辑——基于链接权重和关键词匹配——在宏观上是相对稳定和可预测的。
而AI的回答,则是在一个巨大的、不可见的概率空间中,实时“生成”出来的。其结果,不仅受到用户提问方式的微妙影响,更受到模型内部那些不为外人所知的、可能随时变化的“权重”和“偏好”的支配。
当越来越多的人,开始绕过传统的搜索引擎,直接向AI寻求答案时,我们实际上是在将自己获取信息的权力,托付给了一个我们既不完全理解、也无法有效监督的“双面罗盘”。
而这枚罗盘,将如何塑造我们对世界的认知,将是整个社会都必须面对的、一个紧迫而重要的新课题。