文章主题:清华出品, AI大模型, ChatGLM, 第3代整合包
清华出品 | 超强AI大模型ChatGLM第3代整合包来了!
今天给大家带来一款令人兴奋的AI大模型,它就是清华出品的ChatGLM。
ChatGLM3简介
由清华系创业公司智谱AI推出的ChatGLM,是国内首个全线对标OpenAI产品线的公司。他们近期推出ChatGLM第三代,并且6B版本的大模型直接开源。
官方描述中,ChatGLM3在44个中英文公开数据集测试中排名首位,性能非常强悍。
ChatGLM3离线整合包来了
老规矩,大家自行在本地部署比较麻烦,所以我已经为大家制作好了一款离线整合包了,下载到本地解压即用!
大家下载离线整合包,解压到本地。
①根据需要,选择不同的启动方式:
一键启动-CPU:适用于几乎任何电脑,但处理速度较慢(Windows 7不支持) 一键启动-GPU:适用于带英伟达独立显卡的电脑,建议2060显卡及以上 一键启动-综合demo:适用于带英伟达独立显卡的电脑在执行双击一键启动程序之后,将会出现一个命令提示窗口。在这个窗口中,项目将自动启动。当项目成功加载后,会在浏览器中自动打开项目的主界面。然而,如果该项目没有自动打开,用户可以手动复制以下链接并在浏览器中打开:“http://127.0.0.1:7860/”。
以下是CPU运行:
以下是GPU运行:
运行成功后,就可以在浏览器看到项目主界面了。我们快速问它几个问题,发现ChatGLM3都能回答得比较快也比较正确。经典的,拿来给孩子辅导作业一点问题没有。?
以下是综合demo运行,这是我比较推荐的使用方法,也是官方提供的一个体验方法。综合demo提供了三种使用ChatGLM3模式:
Chat:对话模式,该模式下可以与模型进行对话,回答更偏向于日常聊天。先来拿来试试做英语阅读理解题,回答也是一点问题没有。 工具:工具模式,可以通过模型内部自带的工具进行一些操作,比如调用获取天气的工具,然后询问当前某地的天气情况。 代码解释器:该模式下,模型可以在一个 Jupyter 环境中执行代码并获取结果,以完成复杂的任务。好家伙,有种在本地就可以跑一个ChatGPT的感觉,关键还是免费的!清华毕竟是清华,出品的大模型还是比较强的??!
注意事项:
本文将讨论一项涉及项目性能的评估。尽管该项目的CPU和GPU(仅限于英伟达显卡,且要求10G显存以上)均能正常运行,但CPU的运行速度相对较慢。具体而言,CPU的运行依赖于大量的内存(需16G以上),因此内存需求较高。
②请确保解压到本地的路径不包含中文,不然可能会引起奇怪的适配问题。
关注并私信回复【ChatGLM3】,免费获得本文资源~返回搜狐,查看更多
责任编辑:
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!