ChatGLM-6B
这篇文章介绍了几种构建本地知识库的开源项目,这些项目基于本地文件构建向量数据库,并通过调用现有的GPT语言模型的能力进行向量相似计算。对于那些希望利用GPT语言模型构建自己的APP应用或集成到现有产品中的人来说,这非常方便,并且有一定的市场需求。文章还介绍了GLM项目,这是一种将三种主流的预训练模型统一的方案。GLM项目包括GLM GitHub Paper、GLM-130B Github Paper和ChatGLM-6B博客等。这些项目都可以在消费级的GPU上进行微调,并可以在单张2080Ti显卡上进行推理使用。ChatGLM-6B是一个具有62亿参数的中英双语语言模型,它可以进行中文问答和对话,并支持在单张2080Ti显卡上进行推理使用。虽然ChatGLM-6B具有一定的对话和问答能力,但它的局限性和不足也值得关注。