清华第二代ChatGLM2开源!中文榜居首,超过GPT-4,推理提速42%
ChatGLM-6B

清华第二代ChatGLM2开源!中文榜居首,超过GPT-4,推理提速42%

编辑:桃子 好困 【新智元导读】清华ChatGLM2-6B模型又开始刷圈了!新版本在推理能力上提升了42%,最高支持32k上下文。 ChatGLM-6B自3月发布以来,在AI社区爆火,GitHub上已斩获29.8k星。 如今,第二代ChatGLM来了! 清华KEG和数据挖掘小组(THUDM)发布了中英双语对话模型ChatGLM2-6B。 项目地址:https://github.com/THUDM/ChatGLM2-6B HuggingFace:https://huggingface.co/THUDM/chatglm2-6b 最新版本ChatGLM2-6B增加了许多特性: – 基座模型升级,性能更强大 – 支持8K-32k的上下文 – 推理性能提升了42% – 对学术研究完全开放,允许申请商用授权 值得一提的是,在中文C-Eval榜单中,ChatGLM2以71.1分位居榜首,碾压GPT-4。而最新版本ChatGLM2-6B以51.7分位列第6。 ChatGLM2-6B升级亮点 ChatGLM-6B的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,又增加许多新特性: 1. 更强大的性能 基于ChatGLM初代模型的开发经验,全面升级了ChatGLM2-6B的基座模型。 ChatGLM2-6B使用了GLM的混合目标函数,经过了1.4T中英标识符的预训练与人类偏好对齐训练. 评测结果显示,与初代模型相比,ChatGLM2-6B在MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。 2. 更长的上下文 基于 FlashAttention 技术,研究人员将基座模型的上下文长度由 ChatGLM-6B 的2K扩展到了32K,并在对话阶段使用8K的上下文长度训练,允许更多轮次的对话。 但当前版本的ChatGLM2-6B对单轮超长文档的理解能力有限,会在后续迭代升级中着重进行优化。 3. 更高效的推理 基于 Multi-Query Attention 技术,ChatGLM2-6B有更高效的推理速度和更低的显存占用. 在官方的模型实现下,推理速度相比初代提升了42%,INT4量化下,6G显存支持的对话长度由1K提升到了8K。 4. 更开放的协议 ChatGLM2-6B权重对学术研究完全开放,在获得官方的书面许可后,亦允许商业使用。 效果 相比于初代模型,ChatGLM2-6B在多个维度的能力上,都取得了巨大的提升。...
国产大语言模型:ChatGLM-6B
ChatGLM-6B

国产大语言模型:ChatGLM-6B

     你是否经常感到忙碌和焦虑?你是否想要找到一个智能助手来帮助你管理和规划生活?现在,清华大学开源产品——ChatGLM 是你的最佳选择!       ChatGLM 是一款基于人工智能技术的智能助手,它可以回答你的问题、提供建议、管理日程和任务,帮助你减轻压力和焦虑,提高生活质量。       ChatGLM 的功能包括但不限于:智能问答、智能建议、智能规划、语音助手等。它可以帮助你解决生活中各种问题,例如健康、金融、娱乐等。同时,ChatGLM 还可以帮你管理日程和任务,提高工作和生活效率。 下面,小编就问几个问题看看效果吧~ 一、挑战难倒外国人的“中文八级” 问:领导:“你这是什么意思?“小李:“没什么意思,意思意思。”领导:“你这就不够意思了。李:“小意思,小意思。”领导:“你这人真有意思。”小李:“其实也没有别的意思。”领导:“那我就不好意思了。”小李:“是我不好意思。” 请根据上下文语境,理解一下这到底是什么意思? 二、一封文言文感谢信:多谢先生,蒙辱教诲 问:张良老师在我毕设论文的选题、研究思路、数据分析方面提供了诸多指导,解决了我对于微博文本数据分析的困难、完善了我论文的研究框架,纠正了我论文论证不足的地方。我非常感谢张良老师。我希望你撰写一段有关上文背景介绍的文言文感谢信。 三、帮我写一段代码,我去摸鱼啦 问:用python帮忙写个冒泡排序算法的代码,再给一个数组作为例子,写个测试程序     ChatGLM 的回答之所以如此惊人,可能是因为它结合了自然语言处理和机器学习等技术,能够根据用户的问题和语境,生成最符合逻辑和语义的回答。作为一款开源的语言模型,ChatGLM 的潜力和发展空间都非常巨大,希望在未来的发展中能够继续为用户提供更加优质和智能的服务。 点击原文链接,即刻体验强大的ChatGLM
优化AI大模型训练效率,助力行业创新
ChatGLM-6B

优化AI大模型训练效率,助力行业创新

FATE-LLM新版本发布,支持中文大语言模型ChatGLM-6B联邦化训练。FATE开源社区技术指导委员会主席杨强教授指出,联邦大模型是解决AI大模型发展遇到的公域数据消耗殆尽、隐私安全保护和异构小模型整合等问题有效路径。FATE社区开源了FATE-LLM联邦大模型功能模块,以联邦学习大模型的技术解决方案破局数据隐私保护与数据不足等问题。近期,联邦大模型开源平台FATE-LLM最新版发布,在横向联邦场景支持ChatGLM-6B中文语言大模型,集成GLM的FATE-LLM将更好为国内用户提供中文大模型应用落地选择。
构建基于LLM模型的本地化应用指南
ChatGLM-6B

构建基于LLM模型的本地化应用指南

这篇文章主要介绍了一种基于LLM模型的应用如何进行本地化部署的方法,作者以京东科技刘大朋的身份在京东云开发者社区分享了他的经验。首先,他阐述了所需的软硬件环境以及基础的LLM模型,接着介绍了中间的基础框架和最上层的展示组件。最后,他强调了这种方法可以实现本地零编码体验,并满足个性化开发部署的需求。