Hunyuan-Large-Vision:腾讯混元视觉模型家族中的多模态理解模型

腾讯推出的 Hunyuan-Large-Vision 是混元视觉模型家族中的多模态理解模型。它采用 MoE 架构,由数十亿参数的原生分辨率混元 ViT 视觉编码器、MLP 连接器模块,以及 389B 参数和 52B 激活参数的 MoE 语言模型组成。支持任意分辨率的图像、视频3D 空间输入,尤其加强了多语言场景的理解能力,能用于拍照解题、视频通话、视频理解和文案创作等场景。

GyJpyDaaIAAFjmv.webp

📚 模型架构

  • 视觉编码器:数十亿参数的原生分辨率混元 ViT 视觉编码器,专为多模态任务优化,支持原生分辨率输入,能从各种尺寸的图片和视频中精准捕捉视觉信息。

  • MLP 连接器模块:采用自适应下采样机制设计,可高效压缩视觉特征,连接视觉编码器和语言模型。

  • MoE 语言模型:包含 389B 参数和 52B 激活参数,有很强的多语言理解和推理能力。

📚 性能参数

  • 在国际大模型竞技场 “LMArena Vision 排行榜” 上得 1256 分,排第五,是国内模型里的第一名,性能突出。在 OpenCompass 多模态学术评测集的多个常用学术评测中,平均分 79.5,在视觉推理、视频理解、三维空间理解等复杂任务中表现很好。

📚 功能特点

  • 多模态输入支持:能处理任意分辨率的图像、视频、3D 空间等多种视觉信息。

  • 强大的多语言能力:重点提升了对多语言场景的理解,能准确理解不同语言描述的内容,并做好分析和处理。

  • 技术优势

  • 先进的架构设计:创新的 MoE 架构平衡了计算效率和性能,通过共享专家和专门专家的混合路由策略,提高了训练效率和模型性能。

  • 高质量数据支持:预训练时用了大量高质量多模态数据,包括经特定流程筛选和标注的图像、视频数据,为模型学习提供了丰富素材。

📚 应用场景

  • 拍照解题:用户上传图片后,模型可根据内容解答,比如识别植物、解数学题等。

  • 视频通话:能实时分析视频内容,提供相关信息或互动,比如识别通话双方身份、分析场景等。

  • 视频理解与文案创作:可以总结、分析视频,生成相关文案,还能根据视频内容进行创意创作,比如写视频脚本等。

🌍 体验入口

https://hunyuan.tencent.com/modelSquare/home/list?modelKey=VisionUnderstand

收藏
最新工具
写作鱼
写作鱼

一款智能写作软件,通过AI能为你提供多种写作辅助服务,像智能创作...

AstronClaw
AstronClaw

科大讯飞推出的云端AI智能体平台,基于OpenClaw架构打造,...

可梦AI
可梦AI

一个全流程AI短剧创作运营平台,它把全球优质的 AI 模型整合在...

绘梦工坊
绘梦工坊

一个AI短剧和影视工业化生产的平台,主打“重新定义AI短剧工业化...

小艺Claw
小艺Claw

华为推出的鸿蒙系统AI助手,被称为"鸿蒙版龙虾&quo...

AniShort AI
AniShort AI

八点八数字科技做的短剧创作平台,从写脚本到出成片一站式搞定。它用...

腾讯SkillHub
腾讯SkillHub

腾讯打造的专为中国用户优化的AI Skills社区平台,作为Cl...

AiToEarn AI
AiToEarn AI

一个靠AI智能体运行的社交媒体内容交易平台。一边对接需要推广的品...

腾讯WorkBuddy
腾讯WorkBuddy

腾讯云CodeBuddy团队打造的一款全场景职场AI智能体桌面工...

QClaw
QClaw

腾讯基于OpenClaw做的本地AI助手,支持Mac和Windo...