近日,一个微小、却可能带来深远影响的变化,开始被推送至亚马逊Ring的智能门铃与摄像头之上。
在过去,当有人出现在你的门前时,你的手机,会收到一条冰冷的、匿名的通知:“在你的前门,检测到一个人。”
而现在,这条通知,将可能变得无比具体、也无比私密:“妈妈,正在你的前门。”(Mom at Front Door)。
这,就是亚马逊最新推出的人工智能面部识别功能——“熟人面孔”(Familiar Faces)。
这并非一次简单的、增进用户便利性的软件更新。
它是一次,安静的、但却极为深刻的扩张。它标志着,一个消费级的、遍布全球的监控网络,正从过去简单的“人形检测”,正式跨入到了“生物特征识别”的、一个全新的、也更具争议的领域。
一本由用户亲自建立的“面孔数据库”
该功能,在默认状态下,是关闭的。用户需要手动开启,并同意相关的条款。
开启后,用户可以在其App内,通过上传照片,或是在录制的视频中进行截图,来建立一个最多包含50人的“熟人面孔库”。
一旦某个面孔被命名并注册,此后,当其再次出现在摄像头前时,系统将自动进行匹配,并推送一条个性化的通知。
亚马逊宣称,所有被采集的面部特征向量,都将被加密,并存储于云端;任何未被命名的面孔数据,将在30天后,被自动删除;并且,这些数据,目前,将不会被用于训练其AI模型。
这是一个看似无懈可击的、旨在保护用户隐私的闭环设计。
然而,它的问题,并不在于那些,选择了“加入”(opt-in)的用户。
而在于,那些,根本没有选择权的、沉默的第三方。
“无法选择退出”的困境
当“熟人面孔”功能被激活时,它所扫描的,并不仅仅是用户的家人与朋友。
它会扫描,每一个,从其摄像头前走过的人。
快递员、路过的邻居、在人行道上玩耍的孩童。
他们,都在毫不知情、也未经其同意的情况下,被摄像头所扫描,其面部特征,被提取并上传至亚马逊的云端。
而他们,无法,选择退出(opt-out)。
“普通民众,不应该仅仅因为,从某家的前门走过,就被自动地,加入到一个私营公司的生物识别数据库之中。”美国参议员埃德·马基(Ed Markey),在一封致亚马逊的公开信中,如此强调。
电子前沿基金会(EFF)则更为直接地指出,这种未经同意的生物特征信息采集,已公然违反了多个地区的隐私法规。
一次“先发制人”的撤退
亚马逊,似乎早已预见到了这场法律风暴。
在美国的伊利诺伊州、德克萨斯州,以及俄勒冈州的波特兰市,由于当地严格的《生物识别信息隐私法》(BIPA),明确禁止任何未经用户主动同意(opt-in)的面部识别行为,亚马逊已确认,其“熟人面孔”功能,在上述区域,将不会上线。
这,并非一次出于监管礼貌的姿态。
这更像是一次,在法律诉讼打响之前的、先发制人的撤退。它以一种默示的方式,承认了该功能在法律上的脆弱性。
而这种脆弱性,被Ring过去的安全“前科”,进一步地放大了。
2023年,该公司,因其员工可无限制地访问用户的视频录像,以及其旗下的Neighbors应用,泄露用户的精确地址,而被美国联邦贸易委员会(FTC),处以了580万美元的罚款。
当一家,有着无法有效保护用户视频与地址数据历史的公司,开始收集一种更为敏感、也更具价值的数据——人脸——时,外界的担忧,便不再是空穴来风。
法庭上的“风向标”
目前,在伊利诺伊州,用户已经针对“熟人面孔”功能,提起了集体诉讼。
这起案件,其更深远的意义在于,它将不再仅仅是关于亚马逊的一款特定产品。
它将成为,决定整个美国消费级安防行业,其面部识别应用的、合规性的“风向标”。
当“刷脸开门”,从我们手中的手机,走向我们家门口的监控摄像头时,便利与隐私之间的那道边界,正变得前所未有的模糊。
Ring,试图用“默认关闭”与“区域屏蔽”等方式,来降低这场争议的烈度。但它,依然无法解决那个最核心的、根本性的矛盾:“路人,为何无法选择退出?”
如果这次集体诉讼成功,它不仅可能,迫使这项功能,面临全面下架的风险。
它更可能,为整个行业的未来,划下一道清晰的、不可逾越的法律红线。
而这场,在法庭上展开的博弈,其最终的裁决,将决定,我们每个人,在未来,是否还能拥有,那份在公共空间中,不被识别、不被记录、不被追踪的、最基本的自由。