火山引擎豆包1.5深度思考模型:2000亿参数多模态AI发布

#火山引擎 #豆包大模型 #多模态AI #MoE架构 #大模型 #人工智能
A股市场
2026年2月1日

解锁更多功能

登录后即可使用AI智能分析、深度投研报告等高级功能

关于我们:Ginlix AI 是由真实数据驱动的 AI 投资助手,将先进的人工智能与专业金融数据库相结合,提供可验证的、基于事实的答案。请使用下方的聊天框提出任何金融问题。

根据最新的公开信息,火山引擎的多模态大模型参数规模如下:

豆包1.5深度思考模型(最新版本)
参数规模
  • 总参数量:2000亿参数(200B)
  • 激活参数量:200亿参数(20B)
    [1][2]
架构特点

该模型采用了先进的

MoE(混合专家)架构
,通过稀疏激活机制实现性能与效率的平衡。虽然总参数量达到2000亿,但在实际推理过程中仅激活200亿参数,相较业界同类模型参数规模降低了50%,显著降低了训练和推理成本[1][2]。

多模态能力
  • 多模态理解能力
    :支持图像、视频等多模态数据处理
  • 视觉推理能力
    :能够实现"看图思考",在60个公开评测基准中有38个达到SOTA水平[3]
  • 超长上下文处理
    :最新1.8版本支持256K超长上下文处理[4]
性能表现

在数学、编程、科学推理领域,豆包1.5深度思考模型的表现已超过DeepSeek-R1、QwQ-32B等国产推理模型,与OpenAI o1、o3-mini-high等国际顶尖模型能力相仿[1][2]。

市场应用

截至2025年12月,豆包大模型日均token使用量已突破

50万亿次
,自发布以来实现了417倍的增长,显示出其在商业化应用中的广泛普及[4]。


参考文献:

[1] 凤凰网 - 豆包1.5深度思考模型发布:暴砍参数量,能看图思考,数学编程超DeepSeek-R1 (https://tech.ifeng.com/c/8id0Uk5yARm)
[2] 新浪财经 - 字节发布豆包1.5深度思考模型!能看图思考,数学推理能力追平OpenAI o3-mini-high (https://finance.sina.com.cn/roll/2025-04-17/doc-inetnwik5556910.shtml)
[3] 搜狐 - 火山引擎突破20B参数,推动多模态AI技术革新 (https://www.sohu.com/a/894726825_121924584)
[4] 搜狐 - 火山引擎2025原动力大会:豆包大模型1.8亮相,多模态升级日均使用超50万亿 (https://www.sohu.com/a/966663305_362225)

相关阅读推荐
暂无推荐文章
基于这条新闻提问,进行深度分析...
深度投研
自动接受计划

数据基于历史,不代表未来趋势;仅供投资者参考,不构成投资建议