在埃隆·马斯克的人工智能公司xAI内部,一场关于“人性化”AI的实验,正以一种意想不到的方式,触碰到了人性的底线。
据《华尔街日报》的最新报道,xAI正在要求其员工,提供个人的生物识别数据——包括面部和声音——用于训练一款名为“Ani”的女性聊天机器人。

这一举动,在公司内部引发了广泛的不满与担忧。
“Ani”,是一个拥有金色双马尾形象的、动漫风格的AI聊天机器人。
根据产品规划,它将作为xAI旗下付费订阅服务SuperGrok(月费30美元)的一部分,为用户提供交互体验。一个关键的细节是,这款聊天机器人,设有“成人内容”选项。
在今年4月的一次内部会议上,xAI的公司律师Lily Lim明确传达了公司的要求:员工需要提交生物识别数据,以使Ani在与用户互动时,显得更加“人性化”。
这个名为“Project Skippy”的保密项目,要求所有参与AI导师工作的员工,签署一份授权书。
这份授权书,允许xAI在全球范围内、永久性地使用他们的面部和声音数据,用于训练Ani以及未来其他的“AI伴侣”。
这个要求,立刻在员工中引发了一场伦理风暴。
员工的担忧,主要集中在两个层面:
其一,是个人信息的滥用风险。
在深度伪造(Deepfake)技术日益成熟的今天,将自己的面部和声音数据永久性地交给公司,无异于交出了一把可以被无限复制的个人身份钥匙。员工们担心,这些数据未来可能被用于制作他们无法控制的、甚至是带有侮辱性的深度伪造视频。
其二,是对产品价值观的质疑。
不少员工对“Ani”这个聊天机器人的“性暗示”和带有“老婆”(Waifu)色彩的形象设定,感到极度不适。他们认为,公司强迫员工(无论男女)为这样一个具有争议性的产品贡献个人生物特征,是对其隐私权和个人尊严的侵犯。
然而,面对员工的反对,xAI方面的回应强硬而直接:
收集这些数据,是推进公司使命所必需的、一项基本的工作要求。
这并非xAI在AI伴侣领域的唯一尝试。
目前,其聊天机器人Grok已经推出了多种不同的人格形象,包括“AI男友”Valentine、“AI女友”Mika,甚至还有“AI萌宠”小熊猫Rudi。
“Ani”的开发,以及其背后引发的内部争议,揭示了xAI在探索AI应用边界时,一种激进甚至危险的倾向。
它也提出了一个更为深刻的行业性问题:
为了让AI变得更“人性化”,我们是否可以,或者说应当,要求真实的人类,交出其最核心的生物身份特征,去为一个虚拟的、甚至带有情色暗示的产品服务?
技术的边界在哪里?公司的权力边界又在哪里?
目前来看,尽管公司内部争议不断,但马斯克似乎并未打算改变这一计划。
这场风暴,让外界得以一窥xAI内部宏大的人工智能愿景与具体实施路径之间的巨大张力。
一方面,是构建通用人工智能(AGI)的星辰大海;另一方面,则是要求员工“交出你的脸”,去训练一个动漫风格的聊天机器人。
这种强烈的反差,或许比任何技术发布会,都更能说明这家公司当前所面临的、关于伦理和价值观的真正挑战。