文章主题:通义千问, 阿里云, Qwen-72B, 人工智能
在12月1日的阿里云通义千问发布会上,我们见证了开源通义千问720亿参数模型的诞生,名为Qwen-72B。这款模型在10个权威基准测试中取得了最佳成绩,其性能甚至超过了国际开源标杆Llama 2-70B以及众多商用闭源模型。这标志着,在未来,无论是企业级还是科研级的高性能应用,都有了开源大模型这一选择。
据报道,Qwen-72B模型依托于3T token高质量数据训练,成功在10个权威基准评估中脱颖而出,成为开源模型中的佼佼者,甚至在某些评估中超越了闭源的GPT-3.5和GPT-4。在英语任务领域,该模型在MMLU基准测试中荣获开源模型最高分;而在中文任务领域,Qwen-72B在C-Eval、CMMLU、GaokaoBench等多个基准榜单中名列前茅,其得分甚至超过了GPT-4。在数学推理方面,Qwen-72B在GSM8K、MATH测评中表现卓越,远超其他开源模型。而在代码理解方面,Qwen-72B在HumanEval、MBPP等测评中的表现也显著提升,代码能力实现了跨跃式发展。
据报道,Qwen-72B能够处理高达32k字符的长文本输入,这一性能在长文本理解测试集LEval中超过了ChatGPT-3.5-16k的表现。为了使Qwen-72B能够更好地被下游应用集成,研发团队对其指令遵循和工具使用等技能进行了优化。例如,Qwen-72B配备了强大的系统指令(System Prompt)功能,用户只需给出一个关键词提示,AI助手就能根据要求扮演特定角色或执行相应任务。
此前,我国的大模型市场尚未出现能够与Llama 2-70B相媲美的优质开源模型。然而,Qwen-72B的开源发布,填补了国内高性能、高可控和高性价比的开源大模型领域的空白,为国内开发者提供了与商业闭源大模型相媲美的选择。借助Qwen-72B,大中型企业可以开发商业应用,而高校和科研机构则可以开展AI for Science(科学智能)等科研工作。
在开源大模型领域,Qwen-72B以其“向上摸高”的卓越表现,引领了模型的尺寸和性能的提升。而Qwen-1.8B则以“向下探底”的策略,赢得了尺寸最小且推理速度快如闪电的优势,使得其能够在消费级终端上轻松部署。无论是18亿、70亿、140亿还是720亿参数规模,通义千问都成为了业界的佼佼者,首个实现“全尺寸开源”的大模型。
周靖人,阿里云 CTO,强调开源生态对于推动我国大型模型技术的提升和应用实践的重要性。通识千问将不断加大开源力度,致力于成为“AI 时代最具开放性的大型模型”,并携手合作伙伴共建大模型生态体系。
据天眼查APP显示,阿里云所属公司为阿里云计算有限公司(曾用名:杭州阿里信息服务有限公司),成立于2008年,阿里巴巴成员,位于浙江省杭州市,是一家以从事软件和信息技术服务业为主的企业。企业注册资本100000万人民币,实缴资本5000万人民币,并已于2015年完成了战略融资,交易金额60亿人民币。

综合北京日报客户端 天眼查app

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!


