文章主题:阿里云, 大规模视觉语言模型, Qwen-VL, 多模态信息理解能力

666AI工具大全,助力做AI时代先行者!

【亿邦原创】8月25日,我国知名云计算服务商阿里云正式推出了一款名为Qwen-VL的大规模视觉语言模型。该模型基于通义千问70亿参数模型Qwen-7B进行深度研发,从而具备了强大的多模态信息理解能力,并能够处理图文输入等多种形式的信息。

Qwen-VL是一款具备多元语言支持的视觉语言(Vision Language, VL)模型。相较于先前的VL模型,Qwen-VL不仅拥有基本的图文识别、描述、问答以及对话功能,还进一步拓展了其视觉定位和图像中文字理解的能力。这意味着,Qwen-VL能够更好地理解和处理多种语言的视觉信息,为相关应用提供了更全面、更高效的解决方案。

在医疗环境中,例如一个不精通中文的外国游客在面对医院 various科室的位置时可能会感到困惑。这时,我们的 Qwen-VL 系统可以发挥它的图像识别和问答功能。具体来说,当游客拍下楼层导览图并询问“骨科在哪层”或“耳鼻喉科去哪层”时,Qwen-VL 会根据图片信息提供相应的文字回答,这体现了我们系统出色的图像理解能力。另一方面,当用户上传一张上海外滩的照片,要求找出东方明珠时,Qwen-VL 可以迅速准确地检测出东方明珠的位置,并用检测框精确地圈出对应的建筑,这充分展示了我们系统的精准视觉定位能力。

Qwen-VL是一款基于Qwen-7B语言模型的产品,它在模型架构上进行了创新性的改进,引入了视觉编码器,从而使得模型能够接收和处理视觉信号。通过精心设计的训练过程,Qwen-VL成功地提升了其对视觉信号的微细节感知和理解能力。值得一提的是,Qwen-VL所支持的图像输入分辨率高达448,远高于通常的224分辨率。基于此,通义千问团队进一步发挥了创意,利用对齐机制,成功开发出了基于LLM的视觉AI助手Qwen-VL-Chat。这一产品的出现,使得开发者可以迅速地构建出拥有多元功能的多模态对话应用。

多模态被视为通用人工智能的关键技术进步路径之一。业内专家普遍认为,相较于仅支持单一感官和文本输入的语言模型,具备多种信息输入功能的多模态模型,其智能潜力巨大,预示着大模型即将实现重大跃升。多模态技术的应用将使大模型对世界的理解更为深入,并极大地拓宽其在各种应用场景中的应用范围。

人类的第一感官能力是视觉,这也是研究者们首先考虑为大型模型赋予的多模态能力。在成功推出M6和OFA系列多模态模型的基础上,阿里云通义千问团队再次开放源代码,推出了基于Qwen-7B的大规模视觉语言模型——Qwen-VL。

Qwen-VL是业界首个支持中文开放域定位的通用模型,开放域视觉定位能力决定了大模型“视力”的精准度,也即,能否在画面中精准地找出想找的事物,这对于VL模型在机器人操控等真实应用场景的落地至关重要。

在主流的多模态任务评测和多模态聊天能力评测中,Qwen-VL取得了远超同等规模通用模型的表现。

在四大类多模态任务(Zero-shot Caption/VQA/DocVQA/Grounding)的标准英文测评中,Qwen-VL取得了同等尺寸开源LVLM的最好效果。为了测试模型的多模态对话能力,通义千问团队构建了一套基于GPT-4打分机制的测试集“试金石”,对Qwen-VL-Chat及其他模型进行对比测试,Qwen-VL-Chat在中英文的对齐评测中均取得了开源LVLM最好结果。

Qwen-VL及其视觉AI助手Qwen-VL-Chat均已上线ModelScope魔搭社区,开源、免费、可商用。用户可从魔搭社区直接下载模型,也可通过阿里云灵积平台访问调用Qwen-VL和Qwen-VL-Chat,阿里云为用户提供包括模型训练、推理、部署、精调等在内的全方位服务。

8月初,阿里云开源通义千问70亿参数通用模型Qwen-7B和对话模型Qwen-7B-Chat,成为国内首个加入大模型开源行列的大型科技企业。通义千问开源模型刚一上线就广受关注,当周冲上HuggingFace趋势榜单,不到一个月在GitHub收获3400多星,模型累计下载量已突破40万。

举报/反馈

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注