在全球云计算的这场“三国杀”中,亚马逊网络服务(AWS),刚刚,对其最主要的竞争对手之一——OpenAI(及其背后的微软Azure)——发动了一次极其精妙的、近乎于“阳谋”式的“生态突袭”。
近日,AWS正式发布了一项名为“Amazon Bedrock Custom Model Import”的新功能。

这并非又一次常规的产品更新。
它的核心,是允许AWS的客户,能够以一种前所未有的、极致简化的方式,去一键地,部署和运行,一个本应属于其“竞争对手阵营”的、关键的开源AI模型——GPT-OSS。
GPT-OSS,作为OpenAI推出的首批、也是最知名的开源语言模型之一,拥有着一个庞大的、已经习惯了其API调用方式的开发者生态。
而AWS的这次“突袭”,其战术,正是针对这个生态的“API兼容性”,所进行的一次精准的打击。
在过去,如果一个开发者,想要将其一个基于GPT-OSS构建的应用,从其原生的环境(例如,微软Azure,或本地服务器),迁移到AWS之上,他,需要经历一个极其复杂而痛苦的过程。
他,需要去手动地,配置GPU服务器、搭建推理引擎、处理模型的依赖关系,并为可能到来的流量洪峰,去设计一套复杂的、按需自动扩展的架构。
而现在,这个流程,被AWS,彻底地,简化为了“三步走”:
- 第一步: 将你已经下载好的GPT-OSS模型文件(无论是20亿参数的轻量版,还是120亿参数的性能版),上传到你的Amazon S3存储桶中。
- 第二步: 在Amazon Bedrock(AWS的生成式AI服务平台)的控制台中,点击“启动导入”。
- 第三步: 等待几分钟。
AWS,将会自动地,在后台,为你,处理所有那些,繁琐的、底层的、与AI基础设施相关的“脏活累活”。
而最终,当模型部署完成之后,你,甚至,都无需去学习一套新的API。
你,可以继续地,使用你早已无比熟悉的、OpenAI官方的聊天完成(Chat Completion)API格式,去与这个,正运行在AWS之上的模型,进行无缝的交互。
唯一的代码更改,可能仅仅是,将API调用的端点(Endpoint),从OpenAI的服务器,指向AWS的服务器。
这场近乎于“釜底抽薪”式的“生态兼容”战役,其背后,是AWS,作为全球云计算市场的“老牌王者”,在面对生成式AI这场“范式革命”时,一次深刻的、理性的战略转型。
它,清晰地,展现了AWS,对当前AI市场竞争终局的判断:
当基础大模型的能力,日益变得“商品化”(Commoditized)和“开源化”时,最终的、决定性的战场,将不再是“模型本身”的性能竞赛。
它,将是一场关于“开发者体验”、“部署成本”和“生态兼容性”的、更为残酷的“基础设施”的战争。
爱力方的分析认为,AWS的这次,针对GPT-OSS的“一键部署”功能,其战略意图,是清晰而极具侵略性的。
- 对开发者而言,它,极大地,降低了“多云部署”和“模型迁移”的技术门槛和成本。开发者,现在,可以更自由地,根据价格、性能和可用区等因素,去选择最适合自己的云平台,而无需,再被某一个特定的、专有的API生态,所“锁定”。
- 对AWS自身而言,它,则以一种极其开放的姿态,向所有,哪怕是最初,并非诞生于其生态之内的AI应用,都敞开了一扇“欢迎之门”。它,不再去强迫开发者,必须使用其自家的Titan模型,或其合作伙伴Anthropic的Claude模型。它,选择去成为那个,能够容纳和运行“所有”模型的、最底层、最通用、也最可靠的“操作系统”。
- 而对OpenAI和微软Azure而言,这,无疑,是一次最直接的“挖墙脚”。AWS,正在试图,将其最有价值的资产之一——GPT-OSS的开源生态——从其手中,“和平地”,剥离出来。
这场由AWS点燃的、关于“兼容性”的战争,其所传递出的信号,是明确的:
在AI的下半场,单纯地,拥有一个强大的模型,已经远远不够。
谁,能为开发者,提供一个更简单、更便宜、更开放的、能够“运行一切”的舞台,谁,就将赢得最终的、关于“未来”的战争。
而AWS,这位云计算时代的“老国王”,显然,已经为其在AI时代的新战役,找到了那把最锋利的、也是最致命的武器。