文丨晓静
编辑|徐青阳
"Soon, we see you."
DeepSeek 多模态团队负责人陈小康在 X 平台发出这样一句话。配图中,DeepSeek 标志性的蓝色鲸鱼,一只眼睛被黑色眼罩蒙住,另一只摘下了眼罩。

4 月 29 日,DeepSeek 正在网页端和 App 端灰度测试 " 识图模式 ",与 " 快速模式 "" 专家模式 " 并列,用户进入后可上传图片,并让 DeepSeek 对图片内容进行理解、描述和分析。部分用户已经可以正常使用,另一些用户表示虽然能看到入口,但会收到 " 识图模式暂不可用,请稍后再试 " 的提示。

但更准确地说,这次灰度上线的是多模态理解能力,而不是完整意义上的多模态生成能力。所谓 " 多模态 ",并不一定意味着同时具备识图、生图、语音、视频等全部能力。只要模型能够处理不止一种输入模态,例如文本与图片,就可以被称为多模态能力。
但从腾讯科技体验来看,DeepSeek 这次开放的主要是图片理解,也就是 " 看图、读图、分析图 ",尚未看到图像生成、视频理解或跨模态生成能力上线。

Deepseek 识图能力测试

实测 Deepseek 还不具备图片生成能力
从产品界面看," 识图模式 " 并不是简单附加在输入框中的图片上传功能,而是被放在与 " 快速模式 "" 专家模式 " 同一级的产品入口中。用户进入后,页面会显示 " 使用识图模式开始对话 ",输入框旁也出现图片上传按钮。这说明 DeepSeek 正在将视觉理解作为一个独立模式进行灰度,并不是仅作为文本模型的辅助功能。
但现阶段," 识图模式 " 的产品定位更接近视觉问答、图片理解和截图分析,而非类似文生图、图生图的视频或图像生成工具。
事实上,DeepSeek 并不是第一次做多模态。
早在 2024 年,DeepSeek 就发布过 DeepSeek-VL 系列模型,主打真实世界视觉语言理解,覆盖图表、网页、公式、科学文献、自然图片等场景。此后,DeepSeek 又推出过 Janus 系列,尝试将多模态理解和视觉生成放在统一框架下;Janus-Pro 也曾被视为 DeepSeek 在图像生成方向的一次重要尝试。此外,DeepSeek 还发布过 DeepSeek-OCR,强调从大语言模型角度重新理解视觉编码器的作用,面向文档、截图和结构化信息识别。
从技术路径看," 识图 " 通常不是简单 OCR。OCR 主要解决的是图片中文字的识别,比如截图、票据、文档和表格;视觉语言模型则要进一步理解图片内容,包括物体关系、图表含义、页面结构、场景描述和用户意图。
对于 DeepSeek 这次灰度的 " 识图模式 " 而言,底层看起来可能更像是结合 OCR 与文本推理模型完成图片分析。
但目前,DeepSeek 官方尚未披露 " 识图模式 " 的底层模型名称、参数规模、训练方式和开放计划。DeepSeek API 文档目前仍主要显示 V4 Preview、V4-Pro、V4-Flash、1M 上下文和工具调用等能力,并未出现 Vision、Image Input 或识图相关接口。这意味着,至少在 API 层面,DeepSeek 多模态能力尚未正式开放。
但这一步对 DeepSeek 仍然重要。过去一年,DeepSeek 的核心标签主要集中在推理能力、开源、低成本和长上下文。无论是 R1 还是 V4 Preview,DeepSeek 更突出的都是文本推理和 Agent 场景能力。" 识图模式 " 的出现,意味着 DeepSeek 可能即将在多模态能力上发力。


登录后才可以发布评论哦
打开小程序可以发布评论哦