ChatGPT能耗揭秘:0.34瓦时/查询是真相还是“绿色公关”?

type
status
date
slug
summary
tags
category
icon
password
网址
人工智能的飞速发展,尤其是像ChatGPT这样的大型语言模型(LLM)的普及,正深刻改变着我们的世界。然而,在其强大能力的背后,AI的能源消耗和环境影响问题也日益受到关注。近日,OpenAI首席执行官山姆·奥特曼首次披露了ChatGPT单次查询的能耗数据——0.34瓦时,这一数字迅速引发了业界的广泛讨论和质疑。这究竟是AI能效优化的里程碑,还是科技巨头精心包装的“绿色公关”?

奥特曼的“0.34瓦时”:数据从何而来?

奥特曼在其博文中指出,ChatGPT单次查询的平均耗电量为0.34瓦时(Wh),相当于0.00034千瓦时(kWh)。他还补充说,这大致等同于一个节能灯泡工作两分钟的耗电量,同时用水量约为0.000085加仑。作为AI领域的领头羊,OpenAI公布此数据,无疑为评估AI技术环境足迹提供了重要基准,但也立刻将自己置于聚光灯下,接受各方审视。

支持与印证:看似合理的数字背后

奥特曼公布的数据并非空穴来风,一些第三方研究在某种程度上为其提供了佐证。
1. 独立研究的间接支持: 知名研究机构Epoch.AI曾在一份(假设为同步更新的)报告中指出,GPT-4o(一个与ChatGPT密切相关的模型)单次查询能耗约为0.0003千瓦时,这与OpenAI公布的0.34瓦时(即0.00034千瓦时)基本吻合。该研究基于模型拥有1000亿活跃参数和平均输出500个token的假设。然而,Epoch.AI的研究也承认其局限性,例如仅计算了GPU服务器的直接能耗,并未包含数据中心电源使用效率(PUE)这一关键指标。
另一项由尼达尔·杰拉姆领导的学术研究则给出了更细化的数据,显示不同规模和任务复杂度的GPT系列模型能耗有所不同。例如,GPT-4.1 nano单次查询耗电0.000454千瓦时,而处理复杂长文本任务的GPT-4.5能耗则可能跃升至0.03千瓦时。这些研究表明,在特定条件下,0.34瓦时的能耗水平并非完全不可能。
2. 硬件层面的理论推算: 据行业估算,ChatGPT的日均查询量可能高达10亿次。若以此计算,每日总能耗约为340兆瓦时。有技术专家推测,这可能需要大约3200台搭载英伟达DGX A100芯片的服务器集群来支撑。这意味着每台服务器每秒需处理约4.5次查询。如果每次查询平均生成500个token,那么单台服务器需达到每秒生成2250个token的速率。
尽管有研究表明,高端GPU服务器(如搭载8颗H100 GPU)在运行某些模型时token生成速度可远超此数值,但也有实测数据显示OpenAI模型的实际生成速度可能较低。因此,关于服务器规模和处理能力的推算,虽然存在争议,但并未完全否定0.34瓦时数据的可能性。

疑云重重:为何专家们持保留态度?

尽管存在一些支持性证据,但更多专家对OpenAI公布的能耗数据持谨慎甚至怀疑态度,主要集中在以下几个方面:
1. 计算范围的局限性: 最主要的质疑在于,0.34瓦时这个数字可能仅仅是GPU服务器在执行推理任务时的直接能耗。一个完整的数据中心运行,还包括了存储系统、网络设备、冷却系统(这是能耗大户)、防火墙、电力转换损失以及备份系统等诸多方面的能耗。科技公司在披露能耗数据时,往往倾向于报告最核心或最优化部分的数据,而忽略整体。GPU能耗通常只占数据中心总能耗的一部分。
2. 服务器规模与实际负载不符: 许多行业观察者,如绿色运营倡导者马克·布彻认为,仅凭3200台GPU服务器,远不足以支撑ChatGPT全球数百万甚至上亿用户的日常查询,特别是考虑到编程辅助、图像分析(如GPT-4V)等多模态和复杂任务的需求,以及保证服务高可用性所需的冗余。第三方报告曾指出,OpenAI用于推理的GPU数量可能高达数万乃至数十万颗。如果实际部署规模远超理论推算的3200台,那么单次查询的平均能耗必然水涨船高。
3. 关键参数与定义模糊: 批评者如大卫·米顿指出,OpenAI的声明缺乏必要的上下文信息,使得数据难以评估和比较: * “平均查询”的定义是什么? 是指一次简单的问答,还是一段包含多轮交互的完整对话? * 针对哪个模型? 是能效相对较高的GPT-3.5-turbo,还是功能更强大但可能更耗能的GPT-4或GPT-4o?或者是所有模型的加权平均? * 是否包含复杂任务? 如代码生成、长文档分析、图像理解与生成等,这些任务的能耗远高于简单文本查询。 * 用水量的计算范围? 是仅指服务器直接冷却用水,还是包括了发电过程中的间接水足迹? * 为何缺失碳排放数据? 碳排放因地区能源结构(火电、水电、核电、可再生能源比例)而异,这才是衡量环境影响更直接的指标。
缺乏这些关键信息,0.34瓦时就成了一个孤立的数字,难以进行有意义的解读和横向对比。

推理能耗 vs. 训练能耗:不容忽视的“隐形成本”

以往关于AI能耗的讨论,往往聚焦于模型训练阶段的巨大能源开销。例如,GPT-4的训练据估算消耗了数千万千瓦时的电力。然而,从模型的整个生命周期来看,一旦模型部署并被大规模应用,处理数十亿乃至万亿次用户查询(即推理阶段)所累积的总能耗,可能远超一次性的训练能耗。
以OpenAI的数据为例,若每日10亿次查询,每次0.34瓦时,那么仅需约150至200天,推理阶段的总能耗就可能超过GPT-4的训练能耗。这使得推理阶段的能耗优化和透明化变得尤为重要。对于希望体验和使用ChatGPT官方服务的用户,了解其背后的能耗和技术细节,有助于更全面地认识这项技术。

透明度还是“绿色烟雾弹”?科技巨头的环保责任

OpenAI此次披露能耗数据,恰逢英伟达、谷歌等科技巨头相继发布其硬件产品或服务的环境影响报告。这是否预示着科技行业开始正视并回应公众对AI环境成本的关切,迈向更高的透明度?或者,这仅仅是奥特曼和OpenAI在舆论压力下的一种公关策略,通过一个经过“优化”的数字来淡化其气候影响,以维护商业利益?
在OpenAI提供更详尽、包含完整计算方法和边界条件的能耗报告之前,我们对“0.34瓦时/查询”这个数据应持审慎态度。它可能是一个积极的开始,也可能只是又一颗精心投掷的“绿色烟雾弹”。对于广大用户而言,尤其是国内用户在寻找ChatGPT国内使用方案或访问ChatGPT镜像站时,除了关注功能和便捷性,也应逐渐培养对AI技术背后环境与社会责任的认知。我们期待包括OpenAI在内的所有AI企业,能够提供更全面、更可信的环境影响评估,真正实现技术的“可持续发展”。
如果您希望深入体验ChatGPT的强大功能,探索其在各个领域的应用,可以访问https://chat.aigc.bar,这里提供了便捷的访问途径,让您能够更好地了解和使用这一前沿AI技术,或许还能找到ChatGPT官方中文版的相关信息,获得ChatGPT不降智的优质体验。
Loading...

没有找到文章