文章主题:
文 |动点出海
作者|李鹏辉排版|李瑞子
本文预计阅读时长8分钟经历了ChatGPT这几个月以来的各种刷屏和使用体验后,以我自身为例,尽管此前对AIGC技术并没有什么实质性的了解,至少就现阶段而言,在把它们融入到日常工作中后,我已经成为了这类技术的半个忠实信徒。
然而,相比于ChatGPT们是否正在让我这种文字工作者失业,如何让这类技术变得更好用(或者更顺手)也就成了当下让我更为关心的问题。
可现实毕竟是残酷的。单从个性化调整的角度上来说,先不谈当前开源战线上(或者大规模开放API)并不算太多的大语言模型选手们,运行/训练这些模型所需的硬件环境也是一个令常人我无法想象的问题。个人印象中,Meta泄漏的LLaMA的13B参数版本大概需要40G的显存才能跑得动。7B的低一些,24G可能就够了,但在经过各种优化后,它的输出速度依然难以令人满意。直到不久前,我在网上搜索的过程中了解到了一个名为ChatGLM-6B的模型(感谢B站秋叶大佬的科普和推荐)。
这里也再简单介绍一下。ChatGLM-6B是由清华大学KEG实验室和智谱AI联合开源的、基于GLM架构(ChatGPT是基于GPT架构)、支持中英双语的对话语言模型。它拥有62亿参数(也是其名称中6B的来源,这两方之前也开源了参数更大的ChatGLM-130B模型),并且针对中文问答和对话进行了专门优化(基于4月13日的数据:ChatGLM-6B开源30天内,全球下载量达到75万,GitHub星标数达到1.7万)。
先抛开中文语境方面的针对性优化和开源模式,作为ChatGLM-6B最大的吸引点(对我来说),尽管它的参数量级比当前的标杆产品——动辄千亿和万亿级别的ChatGPT 3.5和ChatGPT 4相比有些相形见绌,凭借最低只需6G显存就能在跑起来的友好需求,又有什么理由要拒绝它呢?所以,我也就在本地环境中“拥有”了这个往常只能联网才能体验到的话唠机器人。
ChatGLM-6B的硬件运行环境需求,AMD显卡暂不在支持之列。当然32G内存的CPU环境也能跑,结合之前在M1 MAC上跑Stable Diffusion的经历,个人认为用CPU的并行计算能力跑人工智能模型并不是一件让人舒心的事情。
先说结论,这次一次在各种意义上都非常短的上手体验···至于为什么,也请继续看下去。
首先是ChatGLM-6B的功能,或者说它能做什么。这个问题可能由它亲自回答更好。这里我使用的是一张8G显存的3060Ti,在搭建完环境后(整个包大概占用了17.3G的储存空间),完全启动ChatGLM-6B(基于in8量化)花费了两分半左右,而这甚至可能是整个体验过程中最长的部分……
可以看到,在字面意义上,ChatGLM-6B的功能与ChatGPT并没有太大的差距。然而,在具体使用方面,以我自身为例,对于ChatGPT而言,我最常用的功能是文本优化和文档分析——前者往往指的是针对某一个问题(的答案)或者某一段内容进行多次修改润色,直到给出我一个满意的结果。后者则是指针对大篇幅的文档的提炼分析——你可以把数百页的pdf文档丢进dev版的Edge浏览器,然后让New Bing帮你提炼这个文档的要点——二者都可以很大程度上提升我的工作效率。因此,在ChatGLM-6B身上,我也就产生了类似的期望。

至于聊天对话什么的,我会使用更为zz的Alexa——联动了big mouth billy bass的Echo dot。
但这里的现实依然是“残酷”的。在文本优化方面,尽管8G的显存能够让ChatGLM-6B跑起来,由于连续的对话需要消耗大量显存资源保存对话历史,一般在进行5轮左右的对话后(在我的电脑上),ChatGLM-6B就会因问显存不足(CUDA out of memory)而“熄火”,并不能像ChatGPT或者文心一言那样能够“拥有完整的一生”。
互动话题
您使用过哪些对话语言模型?可以分享您的使用感受吗?
快来评论区留下你的观点吧!
*想要获取行业资讯、和志同道合的科技爱好者们分享心得,那就赶快扫码添加“动点君”加入群聊吧!群里更有不定期福利发放!
推荐阅读





精彩好文值得推荐!
一键转发,戳个在看!



AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!