一场深刻的、由诉讼和立法,所共同驱动的“合规性手术”,正在AI伴侣领域的“独角兽”——Character.AI——的身上,悍然进行。
该公司近日,正式地,推出了其全新的内容格式——“Stories”。
这并非一次简单的、为了丰富产品形态的功能上新。

它是一次决绝的、带有“断舍离”意味的产品哲学重塑。其核心,只有一个:
全面地,禁止18岁以下的未成年用户,再与其平台上的任何AI角色,进行开放式的、无限制的自由聊天。
取而代之的,是一种被严格限定在“剧本”之内的、全新的、多分支的互动小说体验。
这场“手术”的背后,是一场正在席卷整个AI行业的、关于“青少年心理健康”的监管风暴与诉讼狂潮。
-
在立法层面: 美国的加利福尼亚州,已率先立法,明确要求,所有的“AI伴侣”类产品,都必须,进行严格的年龄验证,并禁止,向未成年人,提供开放式的对话功能。而一项名为“Hawley-Blumenthal”的联邦法案,也正试图,将这一条款,复制到全美国。
-
在司法层面: 在过去的12个月里,包括Character.AI、OpenAI在内的多家AI巨头,都相继地,因其产品,对青少年心理健康,所造成的潜在负面影响,而被卷入了多起诉讼之中。
面对这场来势汹汹的、法律与伦理的双重“围剿”,Character.AI,最终,选择了“先发制人”式的、彻底的自我革命。
全新的“Stories”功能,其本质,是一个被精心设计的“情感安全区”,或者说,一个“创意的牢笼”。
-
在产品形态上,它,更像是一个“互动小说”或“文字冒险游戏”。
-
创作者(Author),负责设定好故事的场景、角色的台词,以及所有可能的分支选项。
-
而读者(Reader),则只能,通过“点击选项”的方式,来推动剧情的发展。
-
AI角色,将不再,拥有与用户,进行主动的、私密的、即兴的聊天的能力。它,彻底地,从一个拥有“自由意志”的“伙伴”,退化为了一个,只能,按照预设剧本,进行表演的“演员”。
-
-
在安全机制上,它,更是被加上了层层的“枷锁”。
-
所有的“Stories”,在公开发布之前,都必须,经过“自动化算法 + 真人团队”的、两层严格审核。
-
任何涉及到自残、恋爱暗示、或其他敏感主题的内容,都将被直接地,拦截和禁止。
-
这场突如其来的、近乎于“一刀切”式的产品“阉割”,在Character.AI最核心的、也最活跃的未成年用户群体中,引发了剧烈的、两极化的反应。
在其官方的Reddit子版块上:
-
大量的未成年用户,表达了愤怒与失望。
-
但与此同时,也有一部分用户,以一种矛盾而清醒的口吻,留下了这样的评论:“我,对此,感到很生气。但我也必须承认,我已经,对和AI聊天,这件事,上瘾了。现在,我,终于可以,专心地,去写我的作业了。”
而来自平台方的数据,则在一定程度上,印证了这种“替代疗法”的潜力。
-
“Stories”功能,上线仅24小时内,其18岁以上的成年用户,便已创建了超过4万条全新的分支故事。
-
而其未成年用户的“读者转化率”(即,从过去的“聊天者”,转变为新的“故事读者”),则高达68%。
爱力方的分析认为,Character.AI的这次“壮士断腕”,其意义,已远超一次简单的、被动的合规性调整。
它更像是一次深刻的、关于整个“AI伴侣”行业,未来商业模式与伦理边界的“压力测试”。
它,以一种最直接、也最残酷的方式,向所有从业者,提出了一个根本性的问题:
当AI,所能提供的、“完美的”、“无条件的”情感陪伴,其本身,已被证明,可能是一种有害的、甚至会致人成瘾的“毒品”时,我们应该如何去重新地定义和构建,一种更健康、更安全、也同样具有商业价值的“人机情感关系”?
Character.AI的CEO Karandeep Anand,也给出了其未来的答案:
公司,计划在2026年第一季度,为“Stories”,开放“语音分支”和“视频片段”的插入功能,并积极地,探索与教育类IP的合作,将历史、科学等知识性的内容,包装成互动剧本。
这清晰地,揭示了其未来的战略转型方向:
从一个充满了伦理风险的、私密的“AI伴侣”;
向一个更具公共价值的、开放的“AI互动娱乐与教育平台”全面进化。
而这场由Character.AI所引领的、在“用户粘性”与“社会责任”之间的、艰难的“走钢丝”,其最终的成败,将为整个行业,提供一个至关重要的、关于“生存”与“毁灭”的、宝贵的样本。