当全球 AI 技术正加速从对话式交互向具备自主行动能力的“智能体(Agent)”进化时,安全与责任成为了行业必须共同守护的生命线。
在近日举行的上海浦江 AI 学术年会上,阿里巴巴联合上海人工智能实验室正式发布了名为《守己利他:智能时代做负责任的技术》的 AI 白皮书。这份文件不仅深度剖析了当前 AI 智能体普及过程中的安全隐患,更针对性地提出了行业治理的中国方案。
从“能说”到“能干”:风险正集中暴露
白皮书敏锐地指出,当前全球 AI 产业正经历从单纯的语言交互到复杂任务执行的跨越。然而,随着智能体在各行各业的渗透,安全风险也随之集中显现。
守己: 强调企业应严守安全底线,加强自律,确保技术开发不逾矩。
利他: 倡导技术应用应以社会福祉为先,解决实际问题而非制造新的矛盾。
合作: 呼吁全行业打破技术孤岛,通过共享安全策略来应对共同的挑战。
安全是社会信任的生命线
在阿里巴巴(中国)网络技术有限公司与上海人工智能实验室有限公司看来,安全绝非单打独斗能够解决的问题。白皮书分享了业界针对智能体安全隐患的最新解决策略,提出全行业应以“共识求共赢”,共同构建一套负责任的技术体系,以应对智能时代可能出现的伦理与技术双重挑战。
行业观察:大模型下半场,“很安全”才是入场券
随着上海人工智能创新中心等顶尖科研力量的加入,国内 AI 产业正在从盲目追求参数规模转向追求安全可控。这次白皮书的发布,标志着以阿里巴巴为代表的科技巨头正在试图确立 AI 时代的“交通规则”。当智能体开始替人类处理订单、编写代码甚至管理行程时,一个“守己利他”的技术底座,将是社会接纳 AI 迈向深水区的核心前提。