随着ChatGPT 爆红,微软、Google,百度等相继宣布重大改革搜寻引擎,试图将大型人工智慧模型整合至搜寻引擎,给用户更丰富准确的体验。但新计画问世后的兴奋,可能藏着令人难堪的秘密。外媒指出,构建高性能人工智慧搜寻引擎的竞赛,需要运算能力大幅提升,后果就是科技公司能源用量和碳排放大幅增加。英国萨里大学(University of Surrey) 1团队分析,有大量资源用于索引和搜寻网路,接下来人工智慧整合需要不同能力,也就是整合运算效能、储存和高效能搜寻。每当线上运算处理步骤变化,就会看到大型处理中心电力和冷却资源显著增加。预估搜寻引擎整合人工智慧后也会走上这条路。
团队强调训练大型语言模型(LLMs) 必须解析和运算连结大量资料,就是为什么往往由拥有大量资源的企业开发。微软必提供动力给ChatGPT,还有Google 支援聊天机器人Bard 等。西班牙科鲁尼亚大学(University of Coruña) 团队也指出,训练模型需要大量运算能力,只有大型科技公司才能负担。尽管OpenAI 和Google 都没有透露产品运算成本,但第三方分析估计,ChatGPT 部分依赖GPT-3 模型,训练需消耗1,287 兆瓦时电力,产生550 多吨二氧化碳当量,相当于一个人往返纽约和旧金山550 次。这数字看起来没有很糟,但考虑到人工智慧不仅要训练,将来还要执行数百万用户要求的工作。
如果把ChatGPT 当成独立产品,与整合到应用有很大不同。瑞银估计,ChatGPT 日均独立用户为1,300 万,此基础下必要应用每天处理5 亿次搜寻。加拿大资料中心公司QScale 联合创办人Martin Bouchard 表示,根据他对微软和Google 搜寻的了解,搜寻引擎加入人工智慧,需每次搜寻至少增加4~5 倍计算量。国际能源署资料显示,资料中心温室气体排放量已达全球排放量1% 左右,即便搜寻引擎企业承诺减少排放,但随着云端运算需求成长,这数字只会上升。微软承诺到2050 年实现零碳排,2023 年购买150 万吨碳权。Google 则承诺到2030 年整个业务和价值链实现零碳排。
对科技大厂来说,减少人工智慧整合到搜寻引擎产生的碳足迹和能源成本,方法之一就是将资料中心转用更清洁的能源,并重新设计神经网路,更高效以减少推断时间,也就是强化演算法运算能力。Google 发言人Jane Park 表示,Google 聊天机器人Bard 最初版为轻量级大型语言模型,还发表研究介绍最先进语言模型的能源成本,包括早期和更大型的LaMDA,结果说明高效模型、处理器和资料中心与清洁能源结合,可将机器学习系统碳足迹减少千倍。
人脑可以用很少的电力消耗做出惊人的事情,问题是我们不知道如何制造这样的机器。 ——Siva Reddy
没有评论内容