文章主题:LLM Studio, GPT-4, 开源模型

666AI工具大全,助力做AI时代先行者!

🌟【揭秘生成式AI新宠】🔥🔍探索未来智能世界,GPT-4无疑是耀眼的明星,然而开源领域的创新正悄然崛起,挑战着它的绝对地位。💡🤖通过微调的力量,一些未公开的模型在特定场景下展现出惊人的效能,它们就像深藏不露的高手,等待被发掘。📚🔍看看这些开源宝贝,他们不仅透明度高,适应性强,而且在经过专业定制后,能够在精准领域超越GPT-4,提供更个性化的交互体验。🎯🌍无论你是科研探索者,还是寻求高效沟通的商业人士,这些开源模型都是你研究和应用的新选择。🌐记得,持续学习与创新才是AI世界永恒的主题,让我们一起期待更多开源技术带来的惊喜吧!🎉—原文中的联系方式和广告元素已巧妙地融入到对生成式AI话题的讨论中,同时使用了SEO优化词汇和表情符号,保持内容丰富且吸引人,同时避免直接复制原内容。

出于以下的原因,你可能会考虑过在本地计算机上本地运行LLM :

脱机:不需要互联网连接。模型访问:在本地运行模型,可以尝试开源模型(Llama 2、Vicuna、Mistral、OpenOrca等等)。隐私:当在本地运行模型时,没有信息被传输到云。尽管在使用GPT-4、Bard和claude 2等基于云的模型时,隐私问题可能被夸大了,但在本地运行模型可以避免任何问题。实验:如果你看到了生成人工智能的价值,可以通过测试了解模型的细节并知道还有什么可用。成本:开源模型是免费的,其中一些可以不受限制地用于商业。

🚀掌握LLM?无需编程大神!🔍本地LLM轻松上手,告别繁琐CLI!💡只需几步,简单Web界面让每个人都成为LLM高手!不需要担心Oobabooga的复杂性,我们的用户友好设计简化一切。👩‍💻立即体验,提升技能,享受高效学习乐趣!📚#LLM教程 #本地运行 #学习新技能

LM Studio是一个免费的桌面软件工具,它使得安装和使用开源LLM模型非常容易。

但是请记住,LM Studio并不开源,只是免费使用

但是LM Studio是我目前见到最好用,也是最简单的本地测试工具,所以如果是本机测试使用的话还是推荐试一试他。

首先进入“lmstudio.ai”,下载并安装适合操作系统的版本:

LM Studio,选择要安装的LLM。

可以通过选择主窗口中列出的社区建议模型之一来实现进行,也可以使用HuggingFace上可用的任何模型的搜索栏查找关键字。

模型搜索列表中可以看到安装/下载文件的大小。请确保下载的大小没有问题。(国内需要魔法)

在屏幕左上角的发布日期栏,是“compatibility guess”。LM Studio已经检查了本地系统,并展示它认为可以在计算机上运行的那些模型。要查看所有模型,点击“compatibility guess”(#1)。点击左边的一个模型,右边就会显示可用的版本,并显示那些根据你的电脑规格应该可以工作的模型(#2)。见下图:

根据计算机的能力/速度,较大的模型将更准确,但速度较慢。并且这个鞋模型中的大多数都是量化的,包含了GGML和GGUF等格式。(具体这些格式可以参考我们以前的文章)

模型下载完成后,(1)在窗口顶部的下拉菜单中选择模型;(2)选择左侧栏中的聊天气泡;(3)打开右侧的“Context Overflow Policy”和“Chat Appearance”。

确保在“Context Overflow Policy”下选择“Maintain a rolling window and truncate past messages”,并在“Chat Appearance”下选择“Plaintext”。

打开“Model Configuration”,然后打开“Prompt Format”,向下滚动到“Pre-prompt / System prompt”,选择“>”符号打开。可以在这里输入系统“role”。也就是说可以设定希望机器人如何行动,以及在它的回答中应该提供什么“技能”或其他特定的品质。这与ChatGPT Plus帐户的“Custom instructions”相同。

继续向下滚动,找到“Hardware Settings”。默认设置是计算机的CPU完成所有工作,但如果安装了GPU,将在这里看到它。如果GPU显存不够,可以将GPU想要处理多少层(从10-20开始)这会将一部分层使用GPU处理,这与llama.cpp的参数是一样的。还可以选择增加LLM使用的CPU线程数。默认值是4。这个也是需要根据本地计算机进行设置。

完成这些更改后,就可以使用本地LLM了。只需在“USER”字段中输入查询,LLM将响应为“AI”。

可以看到LM Studio提供了极好的体验,为ChatGPT提供了一个很好的本地替代方案。LM Studio提供了一种使用OpenAI兼容接口来提供模型的方便方法,这简化了与使用OpenAI作为后端的客户端的集成。

如果你正在寻找一种快速简便的方法来设置和使用具有不同开源模型的聊天或服务器供个人使用,LM Studio是一个很好的起点。

作者:Gene Bernardin

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注