科技前瞻专题:AI ASIC:算力芯片的下一篇章
西南证券·2024-12-16 21:22

行业投资评级 - 报告未明确给出行业投资评级 [1] 报告的核心观点 - ASIC芯片在AI算力集群中的需求巨大,预计2028年数据中心ASIC市场规模将达到429亿美元,年复合增长率为45.4% [4] - ASIC针对特定算法和应用进行优化设计,具有较高的能效比,主要应用于推理场景,并开始切入部分训练环节 [5] - 北美四大CSP(Google、亚马逊、微软、Meta)均推出了自研ASIC产品,以适应不同的业务场景和商业模式需求 [5] ASIC芯片市场前景 - 大型CSP在资本支出方面投入巨大,2024年前三季度北美四大CSP的Capex规模达到1708亿美元,同比增长56% [13] - ASIC可以满足客户的需求,包括内部工作负载的架构优化、更低的功耗和成本、为AI工作负载定制的内存和I/O架构 [18] - 训练和推理集群对加速计算芯片的需求巨大,ASIC市场规模预计2028年将达到429亿美元,年复合增长率为45.4% [26] ASIC与GPU的对比 - ASIC针对特定算法和应用进行优化设计,具有较高的能效比,而GPU具有强大的并行计算能力,适用于大规模数据并行计算 [33] - ASIC的单位算力成本更低,满足一定的降本需求,例如谷歌TPU v5的单位算力成本为英伟达H100的70% [39] - ASIC在软件生态上的劣势是相对较为单一,主要针对特定的应用场景和算法进行优化,而GPU的软件生态丰富成熟 [43] 北美四大CSP自研AI ASIC - 谷歌TPU是专为AI定制设计的ASIC,截至2024年已迭代6代产品,最新一代TPU v6的算力可达926 TFLOPS [56] - 亚马逊自研AI芯片Trainium和Inferentia分别用于训练和推理环节,Trainium 2的性能比第一代提高了4倍,能效提高了1倍 [76] - 微软自研芯片Maia 100用于Azure上的AI工作负载,采用台积电5nm制程,算力性能超过英伟达A100 28% [88] - Meta自研芯片MTIA v2用于AI推理,采用台积电5nm制程,INT8下的稠密算力达到354 TFLOPS,稀疏算力达到708 TFLOPS [99] 相关标的 - 博通是全球AI ASIC龙头,已向多家头部CSP客户批量供应ASIC产品,预计2024年AI芯片收入占比将达到35% [118] - Marvell是全球一线ASIC厂商,其定制计算产品包括AI加速芯片,客户包括北美头部云厂商,预计2026年AI业务收入将达到25亿美元 [148]