美国调纪要202406
AIGC人工智能·2024-06-13 15:34

会议主要讨论的核心内容 大模型的发展 1. Scaling law的可持续性 [1][2][3] - OpenAI认为Scaling law确定可持续,但模型能力难以预判 - Anthropic认为算力可持续,但数据面临瓶颈 - Meta认为不跟进Scaling law存在风险 - Amazon和Google认为Scaling law仍有效,但工程创新也很重要 2. 大模型的格局和发展 [2][3][4] - 模型差距可能在缩小,但格局将收敛,OpenAI、Anthropic、Google有望领先 - 国内AI人才与美国同等,但在投入和决心上存在差距 3. 大模型发展的关键点 [5] - 算力约束转向集群能力和电力,数据质量和自动化清洗是瓶颈 - 参数问题,工程能力的决定性将提升 4. 大模型的发展方向 [5] - 推理能力提升可能是下一个重点 - 工程优化对模型能力提升效果较好 - 多模态融合是发展趋势 AI大模型应用 1. 应用现状 [6] - 各公司应用仍处于探索阶段,缺乏杀手级应用 - 企业应用进展低于预期,效率和粘性不足 2. 应用格局和打法 [6] - OpenAI主攻C端,Anthropic主攻B端 - 云平台和移动操作系统是重要应用平台 算力产业链及生态 1. 算力需求与格局 [7][8] - 短期内算力需求持续,但格局逐渐发散 - 自研ASIC和芯片系统化是发展趋势 2. 产业链挑战 [7][9] - 软硬件层面的挑战,如NVDA生态被挑战 - 中美关系下,国内有机遇跟上全球产业链