文章主题:阿里云, 大规模视觉语言模型, Qwen-VL, 多模态信息理解能力
近日,阿里云宣布推出一款强大的视觉语言模型Qwen-VL,该模型基于通义千问70亿参数的基座语言模型Qwen-7B进行研发,能够处理图文 input 并具备多模态信息理解能力。
Qwen-VL是一款具备多元语言支持的视觉语言(Vision Language, VL)模型。相较于先前的VL模型,Qwen-VL不仅拥有基本的图文识别、描述、问答以及对话功能,还进一步拓展了其视觉定位和图像中文字理解的能力。这意味着Qwen-VL能够更好地理解和处理多种语言的视觉信息,为相关应用提供了更加强大的支持。
在医疗环境中,例如一个不精通中文的外国游客在面对医院 various科室的位置时可能会感到困惑。这时,我们的 Qwen-VL 系统可以发挥它的图像识别和问答功能。具体来说,当游客拍下楼层导览图并询问“骨科在哪层”或“耳鼻喉科去哪层”时,Qwen-VL 会根据图片信息提供相应的文字回答,这体现了我们系统出色的图像理解能力。另一方面,如果我们将一张上海外滩的照片输入到系统中,Qwen-VL 可以迅速找到并准确圈出东方明珠这一目标,这充分展示了我们的视觉定位能力。总的来说,无论是图像理解还是视觉定位,Qwen-VL 都能为我们提供准确、高效的服务。
Qwen-VL是一款基于Qwen-7B语言模型的产品,其独特的设计在于融入了视觉编码器,从而赋予了模型处理视觉信号的能力。这种创新性的架构设计,使得Qwen-VL能够对视觉信号进行细粒度的感知和理解,这是传统语言模型所不具备的。值得关注的是,Qwen-VL支持的图像输入分辨率为448,远高于通常的224分辨率,这无疑为其在视觉领域的发展提供了更大的可能。为了进一步推动Qwen-VL的应用,通义千问团队利用对齐机制,开发出了基于LLM的视觉AI助手Qwen-VL-Chat。这一产品的出现,使得开发者可以快速构建出具备多模态能力的对话应用,大大提升了开发的效率和使用的便捷性。
多模态被视为通用人工智能的关键技术进步路径之一。业内普遍观点认为,相较于仅支持单一感官和文本输入的语言模型,“五官全开”的多模态模型,为人工智能的跃升提供了巨大的潜力。通过整合多种信息输入方式,如文本、图像和音频等,多模态模型能够提高大模型对世界的认知能力,并拓宽其应用范围。
人类的第一感官能力是视觉,这也是研究者们首先考虑为大型模型赋予的多模态能力。在成功推出M6和OFA系列多模态模型的基础上,阿里云通义千问团队再次开放源代码,推出了基于Qwen-7B的大规模视觉语言模型——Qwen-VL。
Qwen-VL是业界首个支持中文开放域定位的通用模型,开放域视觉定位能力决定了大模型“视力”的精准度,也即,能否在画面中精准地找出想找的事物,这对于VL模型在机器人操控等真实应用场景的落地至关重要。
在主流的多模态任务评测和多模态聊天能力评测中,Qwen-VL取得了远超同等规模通用模型的表现。
在四大类多模态任务(Zero-shot Caption/VQA/DocVQA/Grounding)的标准英文测评中,Qwen-VL取得了同等尺寸开源LVLM的最好效果。为了测试模型的多模态对话能力,通义千问团队构建了一套基于GPT-4打分机制的测试集“试金石”,对Qwen-VL-Chat及其他模型进行对比测试,Qwen-VL-Chat在中英文的对齐评测中均取得了开源LVLM最好结果。
Qwen-VL及其视觉AI助手Qwen-VL-Chat均已上线ModelScope魔搭社区,开源、免费、可商用。用户可从魔搭社区直接下载模型,也可通过阿里云灵积平台访问调用Qwen-VL和Qwen-VL-Chat,阿里云为用户提供包括模型训练、推理、部署、精调等在内的全方位服务。
8月初,阿里云开源通义千问70亿参数通用模型Qwen-7B和对话模型Qwen-7B-Chat,成为国内首个加入大模型开源行列的大型科技企业。通义千问开源模型刚一上线就广受关注,当周冲上HuggingFace趋势榜单,不到一个月在GitHub收获3400多星,模型累计下载量已突破40万。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!