在之前《没有网络限制!超简单本地部署 Llama3 的方法》文章中,有介绍了 LM Studio 这款免费软件,总得来说是很好用的,但是它是闭源的,也不知道后面会不会有一些收费之类的政策,所以我们还需要一个随时可以用来替代它的产品——Jan✨✨

是什么?

Jan 是一个开源的、可作为 ChatGPT 替代品的客户端产品,在 Github 上已经斩获 18k 的 star,它支持:

部署本地大模型:直接在个人电脑上运行 Llama 或 Mistral 等 AI 模型以完成私有化部署。无需互联网连接 – 将所有数据和处理保存在本地。调用远程 API:支持连接到远程 API,例如 OpenAI、Groq 或 Mistral API。无需高级硬件即可访问 AI 功能,所有处理均在云端处理。100% 离线使用:哪怕没网,也能流畅使用,一切数据都只保留在个人电脑上。跨平台:支持 Apple Intel、Linux Debian 和 Windows x64 以及 Apple M 系列。扩展:属于高级玩儿法,可以自定义 Jan 来满足特定需求。

它的安装及使用十分简单,哪怕是一个 AI 小白,也可以轻松实现在自己电脑上部署本地大模型。接下来让我们一起来看看如何安装它并部署模型吧~

安装

进入到它的官网选择适合自己电脑系统的安装包进行下载(以三金的电脑为例,下载 Mac M 系列可用的安装包进行安装)
安装好之后打开 Jan 可以看到它的界面比 LM Studio 更清爽一些,在对话的窗口则都长得差不多

部署本地大模型或者调用远端模型

刚安装好是没有可用的本地大模型的,我们需要到 Hub 菜单中下载本地大模型或者选择 OpenAI GPT、Grop 这些远端模型来使用(需要设置 API Key)
以「Mistral Instruct 7B Q4」模型为例,我们点击 Download 进行下载。这个时候不出意外,下载失败,因为它的下载地址是 huggingface 的

修改模型的下载地址

莫慌,我们点击左下角的设置,然后选择「Advanced Settings」高级配置,打开「Jan Data Folder」的目录
在这个目录中,我们可以看到有一个 models 文件夹,这就是 Jan 用来存放本地大模型的地方,每个大模型下都有一个 model.json 文件,它里面包含了对应模型的一些描述和配置以及下载路径,我们可以修改里面的路径为镜像站的 url,在重启 Jan 之后我们就能顺利下载模型了

将下图红框中选中的 url 替换为 hf-mirror.com 即可:

还是以 「Mistral Instruct 7B Q4」为例,我们再修改 url 之后再 Download 一下,已经可以正常下载了:
三金这里之前就下载好了「Qwen Chat 7B Q4」模型,下载好之后,右侧的 Download 按钮会变成 Use,点击 Use 开始对话

写代码什么的也没啥问题:

调用 OpenAI 的 ChatGPT

除此之外,我们也可以试试使用 OpenAI 的 ChatGPT,以 3.5 为例。因为之前部署过 FreeGPT35,所以也用不到 API Key,直接在「EXTENSIONS-OpenAI Inference Engine」里修改「Chat Completions Endpoint」即可:

注意红框后面那半截路径不要丢,不然就没法成功调用

设置好之后回到对话部分,在右侧的模型中选择「Remote-Open AI GPT 3.5 Turbo」开始对话:

成功调通~

启动本地服务

点击左下角的「Local API Server」可以启动一个本地服务,这样我们在其他客户端也能访问本地大模型了

如上图,一旦启动服务器,我们就无法在 Jan 中进行聊天了,只能通过调用这个服务的方式。

服务启动后,我们可以点击「Stop Server」按钮下的 API Reference 来查看可用的 API 都有哪些,也可以看到左侧的 assistant 菜单已经被禁用(这就是对话菜单)

API Reference 打开之后会列出可用的 API 接口,我们以 /chat/completion 为例进行调用:

可以看到还是很丝滑的,如果我们在此基础上,再内网穿透一下,就可以实现外网访问本地大模型了

有点遗憾的是,Phi-3 模型在三金下载到本地并导入到 Jan 里之后却无法运行起来,看了下 issue 也有人提出了一样的问题,希望后续能支持吧。

今天的分享就到这里了,感兴趣的小伙伴快去试试吧~

github 地址: https://github.com/janhq/jan

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注