mirror of
https://github.com/HIllya51/LunaTranslator.git
synced 2024-12-29 08:34:13 +08:00
4.0 KiB
4.0 KiB
部署SakuraLLM到Kaggle/Google Colab
1. 设置内网穿透,以将请求转发给llama.cpp服务
注册ngrok,分别获取NGROK_TOKEN和NGROK_DOMAIN,以供后面使用。
也可以不注册ngrok,将NGROK_TOKEN置为空,则会使用gradio-tunneling的随机域名进行内网穿透。
若使用ngrok,并填写了NGROK_DOMAIN,则每次运行时将会使用固定的域名进行内网穿透,否则将会使用随机的域名。
启动后,将会在log中看到本次运行的url接口地址,将url接口地址填写到翻译器中即可
全空,使用gradio-tunneling,随机的域名
填写NGROK_TOKEN,使用ngrok,随机的域名
填写NGROK_TOKEN+NGROK_DOMAIN,使用ngrok,固定的域名
2. 部署到Kaggle/Google Colab
Kaggle
2. 选择GPU运行时,打开网络连接。首次使用需要验证手机号
3. 设置ngrok密钥和域名,以及使用的模型
将注册的ngrok的NGROK_TOKEN和NGROK_DOMAIN填入脚本中。REPO和MODEL是
https://huggingface.co/REPO
下的MODEL模型文件名
4. 运行脚本,稍微等待一分钟左右即可
llama.cpp是已经预先编译好的,省去了编译的时间,因此主要是下载模型需要花费一点时间。Google Colab
1. 在Google drive中安装Colaboratory应用
点击新建->更多->关联更多应用 在应用市场中搜索Colaboratory安装即可3. 选择GPU运行时
默认是使用CPU运行的,需要我们手动切换成T4 GPU运行。4. 设置ngrok密钥和域名,以及使用的模型
将注册的ngrok的NGROK_TOKEN和NGROK_DOMAIN填入脚本中。 REPO和MODEL是https://huggingface.co/REPO
下的MODEL模型文件名