OpenAI 近日通过官方博客发布了一篇引人深思的提醒文章,指出随着其下一代人工智能模型的能力快速提升,其可能带来的网络安全风险也随之升级至“高”级别。
OpenAI 在博客中强调,先进的 AI 模型不再仅仅是理论威胁。它们极有可能具备开发针对防御严密系统的有效零日(zero-day)远程漏洞的能力。此外,这些模型还可能在针对企业和工业环境的入侵行动中发挥强大的辅助作用,从而引发严重的现实世界安全影响。
OpenAI 的应对与防御策略
面对与日俱增的潜在风险,OpenAI 披露了其双管齐下的应对措施:
-
加强防御性 AI 能力: 内部团队正加大投入,以提升模型在防御性网络安全任务中的表现,并积极开发能协助安全人员完成代码审计和漏洞修补等工作的工具,实现“以 AI 之矛,御 AI 之盾”。
-
多重风险控制: 为降低潜在风险,OpenAI 正采取一系列严格的防护措施,包括:访问控制(Access Control),基础设施加固(Infrastructure Hardening),出口控制(Egress Control).持续监测(Continuous Monitoring)。
推出新计划与成立顾问机构
为进一步强化外部协作与风险治理,OpenAI 宣布了两项重要举措:
-
分级访问增强计划: OpenAI 计划推出一项新计划,向符合条件、从事网络防御的用户与企业提供分级访问增强功能,以支持他们的防御工作。
-
成立 Frontier Risk Council: OpenAI 将成立一个名为 “前沿风险委员会”(Frontier Risk Council) 的顾问机构。该机构将邀请经验丰富的网络防御专家和安全从业人员与内部团队紧密协作。该委员会的初期工作重点将是网络安全,并计划在未来拓展至其他前沿技术领域,以应对更广范围的风险挑战。