LunaTranslator/docs/zh/sakurallmkagglecolab.md
恍兮惚兮 c706c95035 docs
2024-09-07 11:39:48 +08:00

3.6 KiB
Raw Blame History

部署SakuraLLM到Kaggle/Google Colab

1. 注册ngrok以将请求转发给llama.cpp服务

注册后,分别获取NGROK_TOKENNGROK_DOMAIN,以供后面使用。

NGROK_TOKEN
NGROK_DOMAIN

之后在Sakura大模型的设置中API接口地址填写为https://加上NGROK_DOMAIN即可,该地址不会发生变化。

2. 部署到Kaggle/Google Colab

Kaggle

  1. 注册Kaggle,导入ipynb脚本
2. 选择GPU运行时打开网络连接。首次使用需要验证手机号
3. 设置ngrok密钥和域名以及使用的模型 将注册的ngrok的NGROK_TOKEN和NGROK_DOMAIN填入脚本中。
REPO和MODEL是https://huggingface.co/REPO下的MODEL模型文件名
4. 运行脚本,稍微等待一分钟左右即可 llama.cpp是已经预先编译好的省去了编译的时间因此主要是下载模型需要花费一点时间。

Google Colab

1. 在Google drive中安装Colaboratory应用 点击新建->更多->关联更多应用 在应用市场中搜索Colaboratory安装即可
2. 打开Colab,下载ipynb脚本并上传到Colab中。
3. 选择GPU运行时 默认是使用CPU运行的需要我们手动切换成T4 GPU运行。
4. 设置ngrok密钥和域名以及使用的模型 将注册的ngrok的NGROK_TOKEN和NGROK_DOMAIN填入脚本中。 REPO和MODEL是https://huggingface.co/REPO下的MODEL模型文件名
5. 运行脚本,稍微等待一分钟左右即可 llama.cpp是已经预先编译好的省去了编译的时间因此主要是下载模型需要花费一点时间。