💝💝💝欢迎来到我的博客,很高兴能够在这里和您见面!希望您在这里可以感受到一份轻松愉快的氛围,不仅可以获得有趣的内容和知识,也可以畅所欲言、分享您的想法和见解。

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_二级

  • 推荐:kwan 的首页,持续学习,不断总结,共同进步,活到老学到老
  • 导航
  • 檀越剑指大厂系列:全面总结 java 核心技术,jvm,并发编程 redis,kafka,Spring,微服务等
  • 常用开发工具系列:常用的开发工具,IDEA,Mac,Alfred,Git,typora 等
  • 数据库系列:详细总结了常用数据库 mysql 技术点,以及工作中遇到的 mysql 问题等
  • 新空间代码工作室:提供各种软件服务,承接各种毕业设计,毕业论文等
  • 懒人运维系列:总结好用的命令,解放双手不香吗?能用一个命令完成绝不用两个操作
  • 数据结构与算法系列:总结数据结构和算法,不同类型针对性训练,提升编程思维,剑指大厂

非常期待和您一起在这个小小的网络世界里共同探索、学习和成长。💝💝💝 ✨✨ 欢迎订阅本专栏 ✨✨


博客目录

  • 前言
  • 1. 下载 llamafile
  • 2. 下载大语言模型
  • 3. 运行大语言模型
  • 4. 安装 Cpolar 工具
  • 5. 配置远程访问地址
  • 6. 远程访问对话界面
  • 7. 固定远程访问地址


前言

本文主要介绍在 Windows 系统电脑如何利用llamafile结合Cpolar 内网穿透工具,实现随时随地远程访问本地大语言模型的完整流程。

llamafile 是一种 AI 大模型部署(或者说运行)的方案, 与其他方案相比,llamafile 的独特之处在于它可以将模型和运行环境打包成一个独立的可执行文件,从而简化了部署流程。用户只需下载并执行该文件,无需安装运行环境或依赖库,这大大提高了使用大型语言模型的便捷性。这种创新方案有助于降低使用门槛,且一个文件能同时支持 macOS, Windows, Linux, FreeBSD, OpenBSD, 和 NetBSD 系统,使更多人能够轻松部署和使用大型语言模型。

Cpolar,作为一种先进的内网穿透工具,凭借其独特的反向代理技术和强大的功能特性,为用户提供了一种全新的远程访问解决方案。通过 Cpolar,用户可以将本地计算机的服务安全地暴露到公网上,使得外部网络能够轻松访问到本地部署的大语言模型。这种方式不仅简化了远程访问的流程,还大大提高了访问的安全性和稳定性。

本教程中我们将从 llamafile 的安装与配置、大语言模型的部署与测试、Cpolar 的安装与设置以及远程访问的实现等方面进行详细阐述,旨在帮助用户快速掌握这一技术,实现高效、便捷的远程大语言模型访问体验。

1. 下载 llamafile

windows 点击下面下载地址,可以下载 llamafile,下载后是一个压缩包,需要解压
https://www.modelscope.cn/api/v1/models/bingal/llamafile-models/repo?Revision=master&FilePath=llamafile-0.6.2.win.zip

下载后,解压压缩文件,可以看到一个 llamafile.exe 文件,这样就下载成功了,不需要去点击这个文件,下面我们直接下载我们的大语言模型

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_远程访问_02

2. 下载大语言模型

进入这个链接::https://www.modelscope.cn/models/bingal/llamafile-models/,可以下载相应的大语言模型,本例下载的是第一个模型,同时是演示超过4G的模型如何在windows 结合 llamafile 去运行,如果低于 4G 的模型,可以有更简单的运行方式,具体可以看一下该链接里的介绍方法

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_cpolar_03

下载好后,我们把下载的大语言模型和上面我们下载的 llamafile.exe 文件放在一起,然后就可以运行了.下面开始运行,运行也是非常的简单

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_远程访问_04

3. 运行大语言模型

在当前目录下面,点击左上角文件,直接打开 powershell 命令窗口

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_远程访问_05

然后执行下面命令,其中: .\llamafile-0.6.2.exe 表示运行 llamafile, .\Qwen-7B-Chat-q4_0.llamafile表示运行自己下载的大语言模型, -ngl 999 表示调用 GPU 显卡运行,后面则是 web 界面访问端口,8080 可以自己修改,后面-host 默认即可

.\llamafile-0.6.2.exe -m .\Qwen-7B-Chat-q4_0.llamafile -ngl 9999 --port 8080 --host 0.0.0.0

执行后,我们可以看到一些信息,没有报错表示运行成功,会默认跳转到浏览器打开对应的界面,如果没有跳转,可以手动访问一下

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_二级_06

打开浏览器,我们可以看到 llama 的 web ui 界面,这样表示启动就成功了

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_远程访问_07

在最下面的输入框输入即可对话,这样就成功运行了一个大语言模型,不需要安装其他一下各种依赖配置,简单几步就运行成功了,如果我们需要换成其他的模型,同样按照上面运行的方式运行即可,本地成功后,下面我们安装 cpolar 内网穿透,实现远程也可以访问,方便在外面的时候也可以使用我们大语言模型

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_二级_08

4. 安装 Cpolar 工具

本例介绍的是 windows 系统,所以 cpolar 安装在 windows 上,点击下面地址访问 cpolar 官网,注册一个账号,然后下载并安装客户端.

Cpolar 官网:https://www.cpolar.com

  • windows 系统:在官网下载安装包后,双击安装包一路默认安装即可。

cpolar 安装成功后,在浏览器上访问本地 9200 端口【http://localhost:9200】,使用 cpolar 账号登录,即可看到 Cpolar 管理界面,然后一切设置只需要在管理界面完成即可!

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_远程访问_09

5. 配置远程访问地址

在管理界面点击左侧仪表盘的隧道管理——创建隧道,创建一个 llamafile web ui 界面的公网 http 地址隧道!

  • 隧道名称:可自定义命名,注意不要与已有的隧道名称重复
  • 协议:选择 http
  • 本地地址:8080 (上面运行模型的时候指定的端口)
  • 域名类型:免费选择随机域名
  • 地区:选择 China vip

点击创建(点击一次创建按钮即可,不要重复点击!)

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_远程访问_10

隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网访问地址,有两种访问方式,一种是 http 和 https,两种都可以访问

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_cpolar_11

6. 远程访问对话界面

在浏览器输入上面我们创建的 Cpolar 公网域名,可以看到访问成功了

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_语言模型_12

同样在最下面输入对话信息即可完成对话,因为我们是指定使用 GPU 运行,其响应速度更快,模型对话回复时间更短,这样,一个远程访问的公网地址就设置好了.

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_二级_13

小结

为了更好地演示,我们在前述过程中使用了 cpolar 生成的隧道,其公网地址是随机生成的。

这种随机地址的优势在于建立速度快,可以立即使用。然而,它的缺点是网址由随机字符生成,不太容易记忆(例如:7ff0466b.r12.vip.cpolar.cn)。另外,这个地址在 24 小时内会发生随机变化,更适合于临时使用。

我一般会使用固定二级子域名,原因是我希望将网址发送给同事或客户时,它是一个固定、易记的公网地址(例如:llamatest.cpolar.cn),这样更显正式,便于流交协作。

7. 固定远程访问地址

如要配置二级子域名,注意需要将 cpolar 套餐升级至基础套餐或以上,且每个套餐对应的带宽不一样。【cpolar.cn 已备案】

点击进入和登录 Cpolar 官网,点击左侧的预留,选择保留二级子域名,设置一个二级子域名名称,点击保留

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_cpolar_14

保留成功后复制保留成功的二级子域名的名称

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_cpolar_15

返回登录 cpolar web UI 管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道,点击右侧的编辑

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_二级_16

修改隧道信息,将保留成功的二级子域名配置到隧道中

  • 域名类型:选择二级子域名
  • Sub Domain:填写保留成功的二级子域名

点击更新(注意,点击一次更新即可,不需要重复提交)

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_二级_17

更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址二级名称变成了我们自己设置的二级子域名名称

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_二级_18

再次打开浏览器,输入我们固定的 cpolar 公网地址,可以看到同样访问成功了,这样一个固定的地址就设置好了,不用再担心地址会变化!

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_语言模型_19

觉得有用的话点个赞 👍🏻 呗。
❤️❤️❤️本人水平有限,如有纰漏,欢迎各位大佬评论批评指正!😄😄😄

💘💘💘如果觉得这篇文对你有帮助的话,也请给个点赞、收藏下吧,非常感谢!👍 👍 👍

🔥🔥🔥Stay Hungry Stay Foolish 道阻且长,行则将至,让我们一起加油吧!🌙🌙🌙

llamafile本地安装配置并部署及远程测试大语言模型详细实战教程_语言模型_20