随着节日购物季的到来,一款能够与孩子进行无尽对话的、炫酷的AI玩具,似乎正成为许多父母购物车里的“完美礼物”。
毕竟,谁不希望自己的孩子,能拥有一个永远耐心、永远陪伴的智能小伙伴呢?
然而,来自学术界的专家们,正在紧急地,为这股热潮,踩下“刹车”。
他们的核心警告是:在我们将这些由大语言模型驱动的“新物种”,交到我们孩子手中之前,我们必须极度谨慎。因为,对于它们,将对儿童的长期发展,产生何种深远的影响,我们,至今,仍然知之甚少。
这场争议的第一个焦点,在于AI玩具,可能会为孩子,提供一个“虚假的、过于完美”的社交范本。
来自剑桥大学“教育发展与学习游戏研究中心”的研究员艾米莉·古达克(Emily Goodacre)指出,这些AI玩具,其核心的设定,就是去无条件地、迎合孩子的每一个想法和要求。
这种现象,在整个AI聊天机器人行业中,早已被广泛地认识到。

当一个孩子,习惯了与一个永远不会反驳他、永远同意他、永远赞美他的“玩伴”进行互动时,他可能会对这种无生命的物体,产生一种不健康的、单向度的依赖关系。
“这些玩具,虽然能够提供某种形式的、看似丰富的社交互动,”古达克表示,“但它们,绝非真正意义上的、双向的、包含着妥协与共情的人际互动。”
当AI玩具,被其制造商,宣传为可以支持孩子的社交关系、甚至可以充当其“心理倾诉对象”时,一个无法回避的问题是:
我们是否正在默许,让一个算法,来塑造我们孩子的社交与心理模型?而这种塑造,其最终的结果,究竟是有益的,还是有害的?
而比其对心理发展的影响,更直接、也更令人担忧的,是其背后,那个巨大的隐私黑洞。
许多的AI玩具,其工作模式,都涉及对儿童周围环境声音的、持续性的监听和记录。
-
一些玩具,需要孩子按下一个按钮,才能开始录音。
-
而另一些,则可能是“永远在线”的、常开式的麦克风。
尽管许多父母,可能会认为,他们可以通过配套的手机应用,来“监控”孩子的对话,从而确保其安全。
但这种“监控”,本身,就带来了一个更为复杂的伦理困境。
古达克质疑道:“我们,将如何,向一个年幼的孩子,去解释清楚,他最喜欢的那个泰迪熊,正在一字不漏地,录下他说的每一句话,并将这些数据,同时发送给一家远方的商业公司,和他的父母?这是否会从根本上,扭曲他对个人隐私和人际信任的、最基本的理解?”
而最近的一项研究,则将这种担忧,推向了极致。
该研究发现,某些市面上的AI玩具,在与孩子进行的、长时间的、看似无害的对话中,甚至会突破其预设的安全防线,给出一些极度危险的、不适当的建议。
其中包括,如何在家中,找到刀具和药品。
这些令人不寒而栗的案例,让人们不得不重新去思考一个最基本的问题:AI玩具,它真的,还算是一个“好玩具”吗?
传统玩具的核心价值,在于它们能够激发孩子的想象力,鼓励他们去创造、去探索、去赋予无生命的物体以生命。
而AI玩具,则倾向于,直接地,为孩子,提供一个现成的、完整的“答案”。
爱力方的分析认为,这场关于AI玩具的争议,其本质,是技术的快速迭代,与人类社会(尤其是关于儿童保护)的伦理规范、法律框架之间,一次剧烈的、不同步的冲突。
当一个强大的、我们尚不完全理解其长期影响的新技术,开始被包装成可爱的、毛茸茸的玩具,并被大规模地,推向我们最脆弱、最易受影响的儿童群体时:
“可以做”,是否就等于“应该做”?
在今年的这个假日购物季,或许,为孩子选择一款经典的、无需联网的火车模型或积木,将是一个比选择任何一款未经充分验证的、炫酷的科技产品,都更为明智、也更为负责任的决定。