LunaTranslator/docs/zh/offlinellm.md
恍兮惚兮 7afd0ea856 .
2024-07-20 21:18:39 +08:00

39 lines
1.6 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

## 如何使用大模型离线翻译?
### Sakura大模型
> 这是最推荐使用的配置最简单效果最好也可以纯cpu运行轻量模型
具体部署方法可参考 https://github.com/SakuraLLM/SakuraLLM/wiki
### TGW
可参考 [text-generation-webui](https://github.com/oobabooga/text-generation-webui)进行部署,或使用[懒人包](https://pan.baidu.com/s/1fe7iiHIAtoXW80Twsrv8Nw?pwd=pato)+[非官方教程](https://www.bilibili.com/video/BV1Te411U7me)
!> 看B站UP的主的视频弄出了问题别来找我找UP主去。
### ChatGPT兼容接口
其实**Sakura大模型**和**TGW**的接口基本和**ChatGPT兼容接口**一样只不过多了一点预设的prompt和参数而已。可以把sakura和TGW的地址和模型填到这个的参数里面使用。
也可以使用**oneapi**、**ollama**之类的工具进行模型的部署,然后将地址和模型填入。
也可以使用Kaggle之类的平台来把模型部署到云端这时可能会需要用到SECRET_KEY其他时候可以无视SECRET_KEY参数。
#### 使用ollama部署的例子 [@asukaminato0721](https://github.com/HIllya51/LunaTranslator/issues/797)
需要在本地或者 ~~ssh 转发端口到本地(能看懂这句话那不需要继续了)~~
仅提供一种解法。别的兼容 gpt api 的都可以。
下载 ollama https://www.ollama.com/
以 llama3 举例。
https://www.ollama.com/library/llama3
下载好模型,后台跑起来后,在
![img](https://image.lunatranslator.xyz/zh/336483101-915f17c5-27a4-465f-9b4e-7a547ba5029f.png)
改成自己在跑的模型,端口改成对应的。就行了。