|
科技日报记者 刘霞
" G; l8 G2 F: I$ C- y7 @ 世界经济论坛官网近日报道指出,为让人工智能(AI)发挥其变革潜力、提高生产力水平及社会福祉,人类必须确保它可持续地发展。这一愿景面临的核心难题在于,随着算力和性能的不断提升,能耗也在快速增长。- m1 `# i6 j& `4 [% T; \
AI生态系统,从硬件、训练协议到操作技术,都会耗费大量能源。鉴于此,科学家正在设法让其更节能。措施包括改变AI的运行策略、研制更节能的算法和芯片等。' q' d: L5 j% j$ o
3 t4 E' n/ x/ B. B6 q# i
图片来源:世界经济论坛官网
. r2 h& \$ R, x 能源“吞金兽”
5 |: n, L) e6 W" ` AI是能源密集型技术。它究竟有多耗能?数据给出了答案。
0 `. ?; ?$ z- @9 q- {1 ~# O; N. _ 据法国《回声报》网站报道,AI平台“抱抱脸”研究员兼环境问题主管萨沙·卢乔尼表示,Midjourney或Dall-E等AI算法生成一张图片消耗的电力,相当于给一部智能手机充满电。一块英伟达H100型图形处理单元一年消耗的电量,比一个中等规模的美国家庭一年所耗的电量还要多。5 x- n* Q9 p: U* C3 E
美国《哈佛杂志》网站提出,大语言模型在生成类似人类、连贯且符合上下文逻辑的文本方面做得更好。但这种改进也有代价,训练GPT-3消耗的能源相当于120个美国家庭一年消耗的能源。美国《纽约时报》的报道更是惊人,ChatGPT每天要响应大约2亿个请求,这一过程中消耗超过50万度电。
& X: R' ^# t4 M* _/ t! i" A, u 世界经济论坛的数据显示,运行AI任务所需的能源消耗,年增长率介于26%至36%之间。这意味着到2027年,AI行业消耗的能源堪比冰岛或荷兰等国家一年的能耗。
. S% w* p5 n+ [5 ^0 V' ^5 ~ 改变运行策略( U, L( _5 X1 M! R
让AI更节能势在必行。; a; s) e" J( t! L) C9 q
首先是调整AI运行策略。世界经济论坛官网指出,AI运行一般分两个主要阶段:训练阶段和推理阶段。在训练阶段,模型通过消化大量数据来学习和开发;经过训练后,它们进入推理阶段,用于解决使用者提出的问题。在这两个阶段限制能耗,可将AI运行总能耗降低12%到15%。
" @3 q$ s0 p1 |/ z0 I 美国俄勒冈州立大学电气工程与计算机科学学院托马斯·迪特瑞克教授指出,另一个有效的策略是优化调度以节省能源。例如,在夜间运行轻量级的任务,或在寒冷的月份运行更大的项目等,也可节省大量能源。此外,将AI处理转移到数据中心也有助于减少其碳排放,因为数据中心的运行效率非常高,其中有些运行使用了绿色能源。% e# i, N1 L+ W: v& u
从长远看,促进AI与新兴量子技术的协同也是引导AI走向可持续发展的重要战略。传统计算能耗随计算需求增加呈指数级增长,而量子计算和能耗之间呈线性增长。
/ F r o% ~* k4 H0 y 此外,量子技术可使AI模型更紧凑、学习效率更高并可改善其整体功能。
3 g3 O+ Z P( e( h5 C 新模型和新器件
2 ~0 [8 T1 ^- B5 R) ]+ x+ u/ I5 c2 Z AI公司之间竞争的一个驱动力是相信越大越好,这也意味着参数越来越多,能耗越来越大。例如,GPT-4拥有1.8万亿个参数,而其“前身”GPT-3拥有1750亿个参数。因此,为让AI更节能,不少科学家正在尝试找出不需要那么多参数的算法。
, [( a' q) C/ T% e2 S# R9 E8 Z HawAI.tech公司使用了新型电子元器件和基于概率论的AI技术来节省能耗。在相同时段和能耗下,新器件运算速度是英伟达Jeston芯片的6.4倍。该公司联合创始人兼首席执行官拉斐尔·弗里施表示,结合概率论和更优化的电子元器件,他们的解决方案所用的数据和能源会更少。, O1 |3 F2 j! o. [; ^7 y
此外,模拟人脑功能的神经形态芯片也有望提升AI的效率。近日,英特尔公司发布了名为Hala Point的大型神经拟态系统。其内置1152个基于Intel四制程的Loihi 2处理器,支持多达11.5亿个神经元和1280亿个突触,每秒可处理超过380万亿个8位突触和超过240万亿个神经元操作。它独特的功能可实现未来AI应用的实时持续学习,如解决科学和工程问题、物流、智能城市基础设施管理、大语言模型和AI代理等。- e/ m; {# r( h' k4 M5 H% U3 q! E6 N
[ 责编:李欣哲 ] |
|