今天上午,智谱开放平台产业生态大会在上海浦东张江科学会堂举办,开源发布新一代通用视觉语言模型 GLM-4.1V-Thinking。
在智谱开放平台产业生态大会上,智谱宣布浦东创投集团和张江集团对智谱总额 10 亿元的战略投资,并于近期完成首笔交割。同时,三方还启动了一项合作,共同建设人工智能新型基础设施。
智谱今日正式发布并开源视觉语言大模型 GLM-4.1V-Thinking,这是一款支持图像、视频、文档等多模态输入的通用推理型大模型,专为复杂认知任务设计。
从官方获悉,它在 GLM-4V 架构基础上引入“思维链推理机制(Chain-of-Thought Reasoning)”,采用“课程采样强化学习策略(RLCS)”,系统性提升模型跨模态因果推理能力与稳定性。
其轻量版 GLM-4.1V-9B-Thinking 模型参数控制在 10B 级别,在兼顾部署效率的同时实现性能突破。该模型在 MMStar、MMMU-Pro、ChartQAPro、OSWorld 等 28 项权威评测中,有 23 项达成 10B 级模型的最佳成绩,其中 18 项更是持平或超越参数量高达 72B 的 Qwen-2.5-VL,充分展现了小体积模型的极限性能潜力。
目前,GLM-4.1V-9B-Thinking 已在 Hugging Face 与魔搭社区同步开源。包含两个模型,分别是 GLM-4.1V-9B-Base 基座模型,希望能够帮助更多研究者探索视觉语言模型的能力边界作;GLM-4.1V-9B-Thinking,具备深度思考和推理能力的模型,正常使用和体验,均为这一模型。