文章主题:百川智能, 大模型, Baichuan2-192K, 上下文窗口

666AI工具大全,助力做AI时代先行者!

百川智能推出大模型Baichuan2-192K,一次可输入35万字超越Claude2

在10月30日,我国知名的人工智能公司百川智能推出了其最新的Baichuan2-192K大模型,这一模型的上下文窗口长度达到了惊人的192K,这使得它成为全球拥有最长上下文窗口的大模型。Baichuan2-192K具备处理大约35万个汉字的能力,这个数字是当前支持长上下文窗口最优秀的模型Claude2的4.4倍,更是GPT-4的14倍。这样的表现,无疑展示了我国人工智能技术的先进性和强大实力。

在各项指标上,Baichuan2-192K都展现出了卓越的实力。它不仅超越了Claude2在上下文窗口长度上的表现,同时在长窗口文本生成质量、长上下文理解以及长文本问答、摘要等方面也都明显胜出Claude2。这种全面的优势展示,无疑让Baichuan2-192K成为了当前最优秀的自然语言处理模型之一。

在今年的9月25日,我国知名的人工智能公司——百川智能,正式对外公开了其Baichuan2 API接口,标志着该公司已成功进入企业级市场的竞争阶段,为企业用户提供更为优质的服务,从而推动商业化的进程。据相关人士透露,百川智能将采用API调用和私有化部署的方式,向企业用户推出Baichuan2-192K产品。值得一提的是,该公司已经启动了Baichuan2-192K的API内测阶段,并已开放给包括法律、媒体、金融等多个行业的核心合作伙伴。

10项长文本评测7项取得SOTA,全面领先Claude2

上下文窗口长度作为大模型的核心科技之一,具有至关重要的地位。它通过扩大上下文窗口,让模型能够融合更多的上下文信息,从而获取更为丰富的语义信号。这种改进不仅可以更好地识别上下文之间的关联性,还可以有效消除歧义,使生成的内容更加精确、流畅。因此,上下文窗口长度的优化对于提高大模型的表现力具有重要意义。

在Dureader、NarrativeQA、LSHT、TriviaQA等多个中英文长文本问答和摘要评测集上,Baichuan2-192K展示出了卓越的表现,其中更有7项成绩达到了SOTA(即最佳性能)的水平,这一成果远超其他长窗口模型。

另外,从LongEval的评测数据来看,即使窗口长度达到100K,Baichuan2-192K的表现依旧出色,其性能表现优于其他开源或商业模型。随着窗口长度的增加,其他模型的性能则呈现出近似直线下滑的趋势。同样的情况也出现在Claude2身上,当窗口长度超过80K时,其整体表现明显下滑。这些结果充分说明,相较于其他模型,Baichuan2-192K在大窗口长度下的内容记忆与理解能力有着显著优势。

1702656206323.jpg

(LongEval是加州大学伯克利分校联合其他高校发布的针对长窗口模型的评测榜单,主要用来衡量模型对长窗口内容的记忆和理解能力,是业内公认的长上下文窗口理解权威评测榜单)

动态采样的位置编码优化,4D并行的分布式方案,同步提升窗口长度和模型性能

扩大上下文窗口能有效提升大模型性能是人工智能行业的共识,但是超长上下文窗口意味着更高的算力需求和更大的显存压力。目前,业内有很多提升上下文窗口长度的方式,包括滑动窗口、降采样、小模型等。这些方式虽然能提升上下文窗口长度,但对模型性能均有不同程度的损害,换言之都是通过牺牲模型其他方面的性能来换取更长的上下文窗口。

而本次百川发布的Baichuan2-192K通过算法和工程的极致优化,实现了窗口长度和模型性能之间的平衡,做到了窗口长度和模型性能的同步提升。

算法方面,百川智能提出了一种针对RoPE和ALiBi动态位置编码的外推方案,该方案能够对不同长度的ALiBi位置编码进行不同程度的Attention-mask动态内插,在保证分辨率的同时增强了模型对长序列依赖的建模能力。在长文本困惑度标准评测数据 PG-19上,当窗口长度扩大,Baichuan2-192K的序列建模能力持续增强。

1702656206869.jpg

(PG-19是DeepMind发布的语言建模基准数据集,是业内公认的衡量模型长程记忆推理问题的评测标准)

工程方面,在自主开发的分布式训练框架基础上,百川智能整合目前市场上所有先进的优化技术,包括张量并行、流水并行、序列并行、重计算以及Offload功能等,独创了一套全面的4D并行分布式方案。该方案能够根据模型具体的负载情况,自动寻找最适合的分布式策略,极大降低了长窗口训练和推理过程中的显存占用。

百川智能在算法和工程上针对长上下文窗口的创新,不仅是大模型技术层面的突破,对于学术领域同样有着重要意义。Baichuan2-192K验证了长上下文窗口的可行性,为大模型性能提升开拓出了新的科研路径。

Baichuan2-192K正式开启内测,已落地法律、媒体等诸多真实场景

Baichuan2-192K现已正式开启内测,以API调用的方式开放给百川智能的核心合作伙伴,已经与财经类媒体及律师事务所等机构达成了合作,将Baichuan2-192K全球领先的长上下文能力应用到了传媒、金融、法律等具体场景当中,不久后将全面开放。

全面开放API之后,Baichuan2-192K便能够与更多的垂直场景深度结合,真正在人们的工作、生活、学习中发挥作用,助力行业用户更好的降本增效。Baichuan2-192K 能够一次性处理和分析数百页的材料,对于长篇文档关键信息提取与分析,长文档摘要、长文档审核、长篇文章或报告编写、复杂编程辅助等真实场景都有巨大的助力作用。

22b67f6c4b884276bd183f7d4a65ea65.jpeg

它可以帮助基金经理总结和解释财务报表,分析公司的风险和机遇;帮助律师识别多个法律文件中的风险,审核合同和法律文件;帮助技术人员阅读数百页的开发文档,并回答技术问题;还能帮助科员人员快速浏览大量论文,总结最新的前沿进展。

不仅如此,更长的上下文还为其更好的处理和理解复杂的多模态输入,以及实现更好的迁移学习提供了底层支撑,这将为行业探索Agent、多模态应用等前沿领域打下良好技术基础。返回搜狐,查看更多

责任编辑:

aigc666aigc999_0.jpg

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

Leave a Reply

Your email address will not be published. Required fields are marked *