OpenAI星际之门计划受挫:算力转向租用与ChatGPT国内使用指南

type
status
date
slug
summary
tags
category
icon
password
网址
notion image
2025年初,当OpenAI联合软银、甲骨文和阿布扎比主权基金MGX,在白宫高调宣布耗资5000亿美元的“星际之门”(Stargate)AI基础设施项目时,整个科技界都为之震动。那时的愿景宏大无比:打造史上最大的AI数据中心,彻底重塑全球算力格局。然而,短短14个月后,现实的引力让这艘“星际飞船”不得不调整航向。旗舰数据中心扩建谈判破裂、得州园区因寒潮宕机、核心高管离职,OpenAI的算力战略正经历一场从“亲自下场盖房”到“全面租用云服务”的务实大转向。
在这场算力与资本的终极博弈中,OpenAI面临着怎样的困境?这种战略调整对整个AI行业乃至普通用户又意味着什么?本文将深入拆解“星际之门”计划连遭变故背后的逻辑,并为您揭秘在算力成本高企的今天,如何高效、便捷地体验顶级AI大模型。

宏伟蓝图的受挫:阿比林园区的寒冬

“星际之门”计划的起点,是位于得克萨斯州西部小城阿比林(Abilene)的一座超大规模AI数据中心园区。该项目由Crusoe Energy Systems开发,规划总容量高达1.2吉瓦(GW),相当于一座核反应堆的发电能力。为了支撑这个庞然大物,Crusoe甚至拿下了破纪录的116亿美元融资。
按照最初的设想,甲骨文、Crusoe和OpenAI计划将园区容量进一步扩建至2.0吉瓦。然而,这场长达大半年的扩建谈判最终宣告流产。究其原因,一方面是各方在融资条款和资本分担上存在巨大分歧;另一方面,OpenAI自身对算力的需求预测频繁变动,让合作方难以做出长期的重资产投资决策。
更致命的打击来自一场突如其来的自然灾害。2026年初,得州遭遇极端冬季寒潮,阿比林园区引以为傲的闭环液冷系统遭遇严峻考验。极端低温导致散热回路管线冻结,多栋建筑被迫停机数日。在AI训练集群中,单颗Nvidia Blackwell GPU的功耗高达1200瓦,极高的热密度让液冷系统成为唯一解,但冷却分配单元(CDU)的单点故障问题,却在这次寒潮中暴露无遗。设施的不稳定性不仅加剧了甲骨文与Crusoe之间的关系紧张,也成为了压垮扩建计划的最后一根稻草。

从“自建”到“租用”:OpenAI算力战略的务实转向

阿比林园区的挫折只是冰山一角,其背后折射出的是OpenAI在基础设施建设上的根本性战略转向——放弃自建,全面转向租用。
最初的“星际之门”合资公司在宣布后很快陷入了群龙无首的僵局。OpenAI、甲骨文和软银在项目控制权和合作结构上争执不下。面对急迫的算力需求,OpenAI一度试图单干,希望直接拥有大型数据中心。但残酷的财务现实很快给了他们一记重锤:贷款机构拒绝为一家每年烧掉数十亿美元、商业模式尚未完全验证的公司提供巨额建设担保。
认清现实后,OpenAI果断改变了策略。三方合资框架名存实亡,取而代之的是一系列双边租赁协议。OpenAI将建设和融资的沉重资本负担剥离给了合作伙伴,自己则通过租赁结构获取算力。这一转向的规模极其庞大:与AWS签订7年380亿美元合约,与甲骨文达成5年超3000亿美元的租赁协议,同时维持与微软约2500亿美元的长期合作,并积极拓展与Google Cloud的新关系。
在芯片层面,OpenAI也在积极分散风险,不再把鸡蛋放在同一个篮子里。除了与Nvidia达成百亿美元级的部署意向,OpenAI还引入了AMD的Instinct GPU,使用初创公司Cerebras的芯片,并与博通(Broadcom)合作开发代号为“Titan”的推理专用自研芯片。

算力部门重组与生态系统的重新定义

伴随着战略转向,OpenAI内部的基础设施团队也迎来了大换血。前英特尔高管Sachin Katti接管了重组后的算力部门,将其拆分为三个高度专业化的小组:
  1. 技术工程设计组:负责评估芯片组合,决定集群规模和选址。
  1. 商业合作关系组(代号Epic):专门处理与各大云服务商和芯片厂商的巨额合约。
  1. 实体运营组:追踪合作伙伴的设施进度,确保服务器按时上线。
团队重组的背后,是工作重心的彻底转移——从“我们要建什么”变成了“别人替我们建的算力什么时候能用”。同时,“星际之门”(Stargate)这个词的内涵也发生了漂移。它不再特指某一个具体的合资实体数据中心,而是演变成了OpenAI整体算力战略的“品牌名”。只要是为OpenAI运行任务的吉瓦级算力节点,无论是在甲骨文的OCI还是微软的Azure上,都可以被贴上“星际之门”的标签。

算力困境下的用户应对:ChatGPT国内如何使用

OpenAI在底层算力上的疯狂烧钱和战略调整,本质上都是为了支撑其庞大用户群体的日常调用,尤其是保证ChatGPT等核心产品的稳定运行。面对动辄千亿美元的基础设施投入,普通用户最关心的依然是如何稳定、高效地体验到这些强大的AI大模型。
对于国内用户而言,直接访问GPT官网ChatGPT官方往往面临较高的网络门槛。因此,关于ChatGPT国内使用的讨论热度始终居高不下。如果您正在寻找ChatGPT国内如何使用的完美解决方案,强烈推荐使用专业的ChatGPT镜像站平台,例如 https://chat.aigc.bar
该平台不仅完美复刻了ChatGPT官方中文版的流畅交互体验,还通过底层的技术优化与高速中转,彻底解决了网络延迟和访问受限的问题。更重要的是,它能确保原汁原味的模型输出,实现真正的ChatGPT不降智,让您无需繁琐配置,就能随时随地感受由“星际之门”庞大算力驱动的顶级AI魅力。

豪赌未来:与时间赛跑的万亿级游戏

放弃自建转为租用,从短期来看无疑是OpenAI最务实的选择。将基建重担甩给云厂商,保留自身在设计和芯片选型上的灵活性,避免了资金链的断裂。但从长远来看,隐患依然存在。提供算力的微软、亚马逊、Google本身也是AI赛道的强力竞争对手,既是供应商又是对手的微妙关系,让OpenAI的护城河充满变数。
财务数据更是凸显了这场游戏的疯狂。据预测,到2030年,OpenAI的算力总支出将达到惊人的6650亿美元,每年的云服务账单高达850亿美元。而要在2030年实现2000亿美元的营收目标,在那之前公司可能需要承受高达1150亿美元的累计亏损。
OpenAI正在进行一场豪赌,赌的是AI应用场景和使用量的爆发式增长,能够跑赢其庞大算力成本的燃烧速度;赌的是在资本市场的耐心耗尽之前,能够让商业模式的飞轮真正转动起来。

结语

“星际之门”计划的变故,撕开了AI大模型繁荣表面下残酷的基础设施战局。从雄心勃勃的“自建帝国”退守到务实的“租用生态”,OpenAI的妥协不仅是向资本低头,更是对AI产业发展规律的重新认知。在这场马拉松式的算力军备竞赛中,画大饼已经不再奏效,如何确保持续、稳定、高性价比的算力供给,才是决定谁能笑到最后的关键。而对于我们普通用户而言,借力优秀的平台工具,紧跟技术浪潮,才是把握AI时代红利的最佳途径。
Loading...

没有找到文章