越来越“热”的芯片,如何降温?
半导体行业观察·2024-09-13 09:51

前言 2024年,AI的"狂飙突进"势头不减,继ChatGPT之后,文生视频大模型 Sora 的推出更是让人们看到AI的无限可能。然而 随之而来的能耗问题也不容忽视。国际能源署(IEA)《Electricity 2024——Analysis and forecast to 2026E》的报告 ChatGPT每响应一个请求需要消耗2.9瓦时,这相当于一个5瓦的LED灯泡亮35分钟。考虑到每天90亿次搜索,这将在一年 额外消耗近10太瓦时的电力,相当于一座小型核电站一年的发电量。而这些能源消耗的"罪魁祸首"之一,就是支撑AI运行 芯片。为了保证芯片的高效运行,庞大的数据中心往往需要消耗大量的电力进行冷却。根据IEA的报告,数据中心的电力 求主要来自计算和冷却两个方面,两者各占总电力需求的40%左右。预计到2026年,全球数据中心、加密货币和人工智能 电力消耗将在620至1,050 TWh之间变动。 来源:IEA《Electricity 2024 - Analysis and forecast to 2026》 近年来,为了满足5G、AI、汽车电子等新兴市场不断增长的算力需求,芯片的集成度不断提高,相应的功耗也随之 ...