每经记者|李旭馗 每经编辑|毕陆名
以OpenClaw(一款开源AI智能体框架,俗称“龙虾”)为代表的代理式AI(人工智能),其隐私与安全风险正引发有关部门警觉。
3月16日,香港个人资料私隐专员公署(以下简称“私隐专员公署”)于其官网发文表示,正密切关注OpenClaw以及其他代理式AI所带来的个人资料私隐及安全风险,并呼吁机构及市民在使用此类AI工具前采取充分防范措施。
私隐专员公署指出,代理式AI与一般主要用于文字回复、内容总结或生成的AI聊天机器人相比,用途更为广泛。代理式AI通常为一个可部署于本机装置或伺服器上的高权限AI代理工具,能够读写本地档案、调用系统资源、操作外部服务,甚至可按预设流程代替用户自主执行多步骤任务,例如处理电邮、餐厅订座、缴交费用等,有关过程无需用户即时参与。
正是高权限与自主执行的特性,使得代理式AI的私隐风险远高于一般AI聊天机器人。对于其潜在风险,私隐专员公署主要列举了三个方面:
第一,权限过高可能导致个人资料大规模“暴露”。代理式AI的预设存取权限一般较AI聊天机器人为高,可存取使用者装置上的档案、电邮、帐户凭证及浏览器内储存的内容等。若相关权限设定欠缺严格限制,代理式AI可能接触到大量涉及用户或其他人士的个人资料,增加第三方未经授权查阅、复制以至外洩个人资料的风险。同时,代理式AI亦可能因错误理解用户指令,而误删用户重要资料,例如误删用户所有电邮纪录。
第二,系统漏洞或成网络攻击突破口。这类具高权限、可接触多个系统及资料来源的代理式AI,一旦在系统设计或安全控制上出现漏洞,将对个人资料私隐及整体资料保安构成重大风险。
第三,第三方插件或暗藏恶意代码风险。若代理式AI容许用户安装各类Plugins(插件)或Skills(技能),而当中有程式并未经过严格的安全审核,相关程式可能夹带恶意程式码。黑客可借此入侵并接管用户帐户,甚至进一步控制整个电脑系统,从而导致个人资料及其他敏感资料外洩。
针对上述风险,私隐专员公署建议机构或市民在使用代理式AI收集、使用及处理个人资料时,应特别留意授予代理式AI最小权限、使用官方最新版本、采取足够措施确保系统安全及资料安全、审慎安装及使用Plugins或Skills,以及持续评估风险。
值得注意的是,《每日经济新闻》记者梳理发现,这并非是有关部门首次对安装OpenClaw发出预警。
3月13日,香港特区政府负责AI政策的数字政策办公室曾对媒体表示,已关注到OpenClaw存在不确定性的安全风险,并已提醒特区政府各部门,不应在连接政府内部网络的计算机上安装OpenClaw。
同日,国家网络与信息安全信息通报中心发布OpenClaw安全风险预警,提到“大量暴露于互联网的OpenClaw资产存在重大安全风险,极易成为网络攻击的重点目标”。
3月15日,中国互联网金融协会官微发布提示称,OpenClaw智能体虽能提升工作效率,但其默认的高系统权限与弱安全配置,极易被攻击者利用,成为窃取敏感数据或非法操控交易的突破口,给行业带来严峻的风险挑战。
中国互联网金融协会建议金融消费者在办理网上银行、证券交易、支付等个人金融业务的终端上极其谨慎安装OpenClaw。如确有必要安装,建议不授予金融服务类系统操作权限,及时跟进OpenClaw漏洞修复,严控功能插件安装,不在使用时输入身份证号、银行卡号、支付密码等敏感信息。
此外,包括河南医药健康技师学院、山西应用科技学院、甘肃钢铁职业技术学院在内的多所高校已于近期先后发布公告,严禁在校园网络环境中使用OpenClaw,已安装的部门或教职工则须立即彻底卸载。
封面图片来源:每经媒资库