手把手教你本地部署清华大学KEG的ChatGLM-6B模型(CPU/GPU)
ChatGLM-6B

手把手教你本地部署清华大学KEG的ChatGLM-6B模型(CPU/GPU)

ChatGLM-6B是清华大学知识工程和数据挖掘小组发布的一个类似ChatGPT的开源对话机器人,由于该模型是经过约1T标识符的中英文训练,且大部分都是中文,因此十分适合国内使用。 本文来自DataLearner官方博客:手把手教你本地部署清华大学KEG的ChatGLM-6B模型——Windows+6GB显卡版本和CPU版本的本地部署 | 数据学习者官方网站(Datalearner) ChatGLM-6B在DataLearner官方的模型卡信息:ChatGLM-6B(ChatGLM-6B)详情 | 数据学习 (DataLearner) 根据GitHub开源项目公开的信息,ChatGLM-6B完整版本需要13GB显存做推理,但是INT4量化版本只需要6GB显存即可运行,因此对于个人本地部署来说十分友好。遗憾的是,官方的文档中缺少了一些内容导致大家本地部署会有很多问题,本文将详细记录如何在Windows环境下基于GPU和CPU两种方式部署使用ChatGLM-6B,并说明如何规避其中的问题。 安装前说明部署前安装环境1、下载官方代码,安装Python依赖的库2、下载INT4量化后的预训练结果文件Windows+GPU部署方案1、Windows+GPU方案的必备条件2、运行部署GPU版本的INT4量化的ChatGLM-6B模型Windows+CPU部署方案1、Windows+CPU方案的必备条件2、运行部署CPU版本的INT4量化的ChatGLM-6B模型总结 安装前说明 尽管ChatGLM-6B的GitHub上提供了安装部署的教程,但是由于其提供的代码、预训练模型、配置文件并不是统一在一个地方,因此对于一些新手来说很容易出现各种错误。 此外,由于大多数人可能只有较少内存的GPU,甚至是只有CPU,那么只能部署量化版本的模型,这里也会有不一样的。 最后,部署ChatGLM-6B目前涉及到从GitHub、HuggingFace以及清华云的地址,下面我们将详细说明如何操作。 部署前安装环境 在部署ChatGLM-6B之前,我们需要安装好运行的环境。下面2个步骤是不管你部署CPU还是GPU版本都需要做的。 1、下载官方代码,安装Python依赖的库 首先,我们需要从GitHub上下载ChatGLM的requirements.txt来帮助我们安装依赖的库。大家只需要在GitHub上下载requirements.txt即可。下载地址:https://github.com/THUDM/ChatGLM-6B 文件如下图所示: 这个文件记录了ChatGLM-6B依赖的Python库及版本,大家点击右上角Code里面有Download ZIP,下载到本地解压之后就能获取这个文件。然后执行如下命令即可 pip install -r requirements.txt 注意,这是从cmd进入到requirements.txt文件所在的目录执行的结果,这部分属于Python基础,就不赘述了。 需要注意的是,ChatGLM依赖HuggingFace的transformers库,尽管官方说: 使用 pip 安装依赖:pip install -r requirements.txt,其中 transformers 库版本推荐为 4.27.1,但理论上不低于 4.23.1 即可。 但是实际上,必须是4.27.1及以上的版本才可以,更低版本的transformers会出现如下错误: AttributeError: Logger object has no attribute “warning_once”...
🚀ChatGLM-6B:超大规模双语对话神模,62亿参数带你探索未来对话新可能?🔥【智谱AI清华突
ChatGLM-6B

🚀ChatGLM-6B:超大规模双语对话神模,62亿参数带你探索未来对话新可能?🔥【智谱AI清华突

文章概述了智谱AI公司开源的ChatGLM-6B模型,这是一个大型中英双语对话模型,拥有62亿参数并支持本地部署。经过多技术训练和优化,它能生成贴近人类偏好的回答。ChatGLM-6B是智谱AI在自然语言处理领域的创新成果之一,也是清华大学的贡献,旨在推动对话系统的发展,并通过开源促进对话交互的进步。然而,模型也存在许可限制、可能的质量问题以及需要进一步改进的地方。值得注意的是,它基于规模较大的GLM-130B模型,后者在多项任务中表现出色。
数据格式转换秘籍:如何高效地从斯坦福大羊驼到ChatGLM-6B?🚀
ChatGLM-6B

数据格式转换秘籍:如何高效地从斯坦福大羊驼到ChatGLM-6B?🚀

该文章旨在强调开源项目在各行业的进步中所扮演的重要角色,并提倡尊重作者。文中提到,通过学习ChatGLM-6B的开源项目,可以快速实现私有对话机器人,但强调数据准备阶段是关键,需要使用`cover_alpaca2jsonl.py`工具将斯坦福大羊驼的数据转换为适合的学习格式。同时,该代码存在一个小问题,即git生成的jsonl文件中空字符串被误作为"Answer: "。作者建议读者查看源代码以了解详情,并提供了修正此问题的提示。最后,文章指出在这个快速变化的时代,持续学习的能力是避免35岁职业危机的关键。