深度解析大模型军备竞赛对算力需求的影响,涵盖训练与推理算力增长、供给约束、技术对冲及垂直应用,提供2025年AI算力市场投资建议与风险提示。
2023年以来,以GPT-4、Claude 3、文心一言4.0等为代表的大模型(Large Language Model, LLM)成为人工智能(AI)领域的核心赛道,企业间的“军备竞赛”愈演愈烈。大模型的研发、训练与部署高度依赖算力(计算能力),其需求增长是否可持续,成为科技行业与资本市场关注的核心问题。本报告从驱动因素、需求构成、供给约束、技术对冲、垂直应用五大维度,结合行业趋势与历史数据,分析算力需求的增长逻辑与可持续性。
大模型军备竞赛的本质是技术迭代与商业价值的双重驱动,这一逻辑将持续推动算力需求增长:
大模型的核心竞争力在于参数规模与上下文理解能力。历史数据显示,大模型的参数规模每12-18个月翻一番(如GPT-3(2020年)1750亿参数、GPT-4(2023年)万亿级参数、GPT-5(2025年预期)十万亿级参数)。参数规模的扩张需要更强大的算力支持:训练一个1750亿参数的GPT-3需要约1287 PF-days(千万亿次浮点运算/天)的算力,而训练万亿级参数的GPT-4需要约10倍以上的算力(约1.3 EF-days)。随着模型向“超大规模”(如十万亿级参数)演进,训练算力需求将保持指数级增长。
大模型的商业价值在于生成式AI应用的落地,如办公场景(Microsoft 365 Copilot、Google Duet AI)、医疗场景(辅助诊断、药物研发)、教育场景(个性化学习、智能辅导)、工业场景(设备故障预测、生产优化)等。这些应用的普及需要将大模型部署到终端,处理海量用户请求,从而拉动推理算力需求。例如,OpenAI的ChatGPT在2023年11月用户量突破1亿时,推理算力需求达到约100万颗GPU;2024年,随着ChatGPT Plus订阅量增长(约2000万用户),推理算力需求增至约300万颗GPU。2025年,生成式AI在全球办公软件市场的渗透率预计达到35%(数据来源:Gartner 2025年AI市场报告),推理算力需求将保持线性+超线性增长。
大模型的参数规模与性能已成为企业的核心竞争壁垒。例如,亚马逊通过Bedrock平台提供大模型服务,谷歌通过PaLM 2模型支撑Search Generative Experience(SGE),微软通过GPT-4支撑Copilot生态。企业为了维持竞争优势,必须持续投入大模型的研发与升级,从而带动算力需求。根据麦肯锡2025年调研,全球Top 50科技企业中,80%将大模型研发投入占比提升至研发总预算的20%以上(2023年为12%)。
算力需求主要分为训练算力(Training Compute)与推理算力(Inference Compute),两者均呈现持续增长态势:
训练算力是大模型研发的基础,其需求取决于模型参数规模与训练数据量。根据OpenAI的研究,2012-2023年,大模型训练算力需求年复合增长率(CAGR)达到112%,远高于摩尔定律的50%(每18个月性能翻倍)。2025年,随着GPT-5(十万亿级参数)、Claude 3(万亿级参数)等模型的训练,训练算力需求将较2024年增长5-8倍(数据来源:OpenAI 2025年AI算力报告)。
推理算力是大模型部署后的算力需求,其增长取决于用户量与应用场景复杂度。例如,生成式AI在医疗领域的应用(如辅助诊断),每处理一个患者的病例需要调用大模型进行多轮推理,算力消耗是普通文本生成的3-5倍。根据IDC 2025年预测,全球推理算力需求CAGR将达到38%(2023-2027年),高于训练算力的25%,成为算力需求增长的主要贡献者。
算力供给主要来自芯片厂商(如英伟达、AMD、华为)与云计算厂商(如AWS、阿里云、腾讯云),其供给能力直接影响算力需求的满足程度:
高端AI芯片(如英伟达H100、H200,AMD MI300,华为昇腾910B)是大模型训练与推理的核心硬件。由于制造工艺复杂(如5nm、3nm),且需求激增,高端GPU产能持续紧张。根据英伟达2025年Q3财报,H100 GPU的订单积压量达到120亿美元(约850亿人民币),交付周期延长至6-8个月。华为昇腾910B的产能也面临类似问题,主要受限于台积电的5nm工艺产能。
云计算厂商是算力的主要提供者,其通过部署大量GPU服务器,为企业提供弹性算力服务。例如,AWS在2025年上半年新增了10万台H100 GPU服务器(约80万颗H100),阿里云新增了5万台昇腾910B服务器(约40万颗昇腾910B)。但根据Gartner 2025年调研,全球云计算厂商的GPU部署量仅能满足60%的大模型算力需求,短期内供给缺口仍将存在。
为了缓解算力供给不足,各国正在建设算力网络(如中国的“东数西算”工程、美国的“AI Compute Network”),通过边缘算力、算力调度平台等方式,提升算力的利用效率。例如,“东数西算”工程将东部的算力需求转移至西部,利用西部的能源优势(如风电、光伏)支撑大模型训练,预计可提升算力利用效率20%-30%(数据来源:中国信通院2025年算力发展报告)。但算力网络无法解决高端GPU产能不足的根本问题,只能缓解短期压力。
技术进步(如模型压缩、硬件优化、算法改进)可以降低每单位模型性能的算力消耗,从而对冲部分算力需求增长:
模型压缩技术(如量化、剪枝、知识蒸馏)可以将大模型的大小缩小50%-80%,同时保持90%以上的性能。例如,Meta的Llama 2模型通过量化技术,将模型大小从1750亿参数缩小至300亿参数,训练算力需求降低了70%。2025年,模型压缩技术的普及预计将使大模型训练算力需求增长速度放缓15%-20%(数据来源:Meta 2025年AI技术报告)。
专用AI芯片(如英伟达H100的Transformer Engine、华为昇腾910B的达芬奇架构)针对大模型的计算特点(如矩阵乘法、注意力机制)进行优化,计算效率较通用GPU提升2-3倍。例如,H100的FP8计算能力达到320 TFLOPS(万亿次浮点运算/秒),是A100的2倍。专用AI芯片的普及将使每单位算力的模型性能提升50%-100%。
算法改进(如稀疏注意力机制、混合专家模型(MoE))可以降低大模型的计算复杂度。例如,Google的PaLM 2模型采用了稀疏注意力机制,将注意力计算的复杂度从O(n²)降低至O(n√n),训练算力需求降低了40%。混合专家模型(如GPT-4的MoE架构)通过将模型分成多个专家子模型,仅调用与输入相关的专家子模型,推理算力需求降低了30%。
垂直领域大模型(如医疗、工业、教育)的应用扩展,将成为算力需求增长的重要来源:
医疗大模型(如微软的Med-PaLM 2、阿里的通义医疗)需要处理大量的医疗数据(如电子病历、医学影像、药物分子结构),训练与推理算力需求巨大。例如,Med-PaLM 2模型训练需要约500 PF-days的算力(相当于10万台A100 GPU运行1天),而推理时每处理一个患者的病例需要约100 GFLOPS的算力(相当于1颗A100 GPU运行0.1秒)。2025年,全球医疗大模型市场规模预计达到150亿美元(数据来源:IDC 2025年医疗AI报告),带动算力需求增长25%-30%。
工业大模型(如西门子的Industrial AI、腾讯的工业大模型)需要处理工业传感器数据(如温度、压力、振动),训练与推理算力需求也很大。例如,西门子的Industrial AI模型训练需要约300 PF-days的算力,推理时每处理一个设备的传感器数据需要约50 GFLOPS的算力。2025年,全球工业大模型市场规模预计达到120亿美元(数据来源:Gartner 2025年工业AI报告),带动算力需求增长20%-25%。
教育大模型(如可汗学院的AI tutor、字节跳动的豆包教育)需要处理大量的教育数据(如学生作业、考试成绩、学习行为),训练与推理算力需求增长迅速。例如,可汗学院的AI tutor模型训练需要约200 PF-days的算力,推理时每处理一个学生的学习请求需要约30 GFLOPS的算力。2025年,全球教育大模型市场规模预计达到100亿美元(数据来源:麦肯锡2025年教育AI报告),带动算力需求增长15%-20%。
大模型军备竞赛的技术迭代、商业应用落地、企业竞争壁垒等驱动因素,将持续推动大模型的研发与部署,从而带动算力需求增长。训练算力(指数级增长)与推理算力(线性+超线性增长)双轮驱动,垂直领域应用(医疗、工业、教育)的新增需求,将成为算力需求增长的重要来源。
短期内,高端GPU产能紧张(如H100、昇腾910B)与云计算厂商部署量不足,将导致算力供给缺口持续存在。长期来看,技术进步(模型压缩、硬件优化、算法改进)与算力网络(东数西算、AI Compute Network)将提升算力利用效率,缓解供给压力,但无法完全解决供给不足的问题。
算力需求增长的可持续性,将带动AI芯片(英伟达、AMD、华为)、云计算(AWS、阿里云、腾讯云)、算力网络(光环新网、宝信软件)等领域的投资机会。投资者可关注这些领域的龙头企业,尤其是那些在高端AI芯片、算力部署、技术进步方面具有优势的企业。

微信扫码体验小程序