Board logo

标题: ChatGPT 每天耗电超 50 万度,大模型“吃电”夸张 未来可能带来“电荒”! [打印本页]


作者: 西雅图未眠夜    时间: 2024-3-11 09:08     标题: ChatGPT 每天耗电超 50 万度,大模型“吃电”夸张 未来可能带来“电荒”!

  据 The New Yorker 报道,热门聊天机器人 ChatGPT 每天需要处理超过 2 亿次请求,其电量消耗可能高达每天 50 万千瓦时。相比之下,美国普通家庭每天的平均用电量仅为 29 千瓦时,这意味着 ChatGPT 的日耗电量是普通家庭的 1.7 万倍以上。

  更令人担忧的是,随着生成式人工智能的普及,其电量消耗可能会进一步激增。荷兰中央银行数据科学家 Alex de Vries 在一份发表于可持续能源期刊《焦耳》上的论文中计算得出,如果谷歌将生成式人工智能技术应用于所有搜索,其每年将消耗约 290 亿千瓦时电量,这相当于肯尼亚、危地马拉和克罗地亚一年的总发电量。

  然而,目前评估蓬勃发展的 AI 行业究竟消耗了多少电量还存在困难。据 The Verge 报道,大型科技公司一直引领着 AI 发展,但它们对于自身能源消耗讳莫如深,同时不同的人工智能模型运行方式也存在巨大差异。

  不过,de Vries 在论文中还是根据英伟达公布的数字做出了粗略计算,据 CNBC 报道援引 New Street Research 的数据,英伟达在图形处理器市场份额中占据了约 95%。de Vries 在论文中估计,到 2027 年,整个 AI 行业将每年消耗 85 到 134 太瓦时(IT之家注:terawatt,相当于 1340 亿千瓦时)的电量。

  “这相当于到 2027 年,人工智能的电量消耗可能占到全球电量的一半左右,”de Vries 告诉《The Verge》,“我认为这是一个相当可观的数字。”

  相比之下,世界上一些耗电量最大的企业也相形见绌。根据 Businessinsider 基于消费者能源解决方案报告的计算,三星的年耗电量接近 23 太瓦时,谷歌等科技巨头的数据中心、网络和用户设备每年耗电略高于 12 太瓦时,微软的耗电量则略高于 10 太瓦时。
  
作者: 这才叫牛    时间: 2024-3-11 09:19

人工智能的尽头还是光伏,只有这玩意儿用不完
作者: 轮廓女人    时间: 2024-3-11 09:20

没有电,要科技何用
作者: 仙人指路    时间: 2024-3-11 09:21

上次说费水,这次说费电,这是想要表达什么?
作者: looking    时间: 2024-3-11 09:22

他多费电,我少费脑
作者: 珍爱生命    时间: 2024-3-11 09:23

为啥要和普通家庭比,起码和一般数据中心比吧
作者: 木石姻缘    时间: 2024-3-11 09:24

人算费脑,电算费电,没毛病啊!
作者: 对岸观火    时间: 2024-3-11 09:25

一年一亿元电费而已,和电解铝比小意思
作者: 俊艺    时间: 2024-3-11 09:27

人工智能的革命同时也是一场能源革命
作者: zqzhaozq    时间: 2024-3-11 09:28

利好新能源
作者: sniper.m    时间: 2024-3-11 09:29

不用急于发展这种软件,因为太费钱,没有落地的用处
作者: jingbaiwan    时间: 2024-3-11 09:30

只论耗电,不论价值?
作者: 真猪    时间: 2024-3-11 09:31

感觉不是我们这种普通人应该考虑的事情呀
作者: zhiyong119    时间: 2024-3-11 09:32

降低能量的方法就是不用它呗
作者: 梦天涯者    时间: 2024-3-11 09:33

作为参考,国内大型火力发电厂,单机容量大概在50-60万千瓦,也就是1小时发50-60万度电
作者: qaqqa    时间: 2024-3-11 09:35

可以用新能源啊,搞个200WM的光伏
作者: tfnihia    时间: 2024-3-11 09:36

挖矿很费电就是个最很好的例子,算力当然费电啊!
作者: monky    时间: 2024-3-11 09:37

光伏风电要来波段了




欢迎光临 华声论坛 (http://bbs.voc.com.cn/)