LunaTranslator/docs/zh/offlinellm.md
恍兮惚兮 6e68471958 fix
2024-09-29 17:11:07 +08:00

1.0 KiB
Raw Blame History

如何使用大模型离线翻译?

Sakura大模型

推荐使用配置简单效果好也可以纯cpu运行轻量模型

部署方法

  1. 部署SakuraLLM到在线GPU平台

  2. 其他部署方法可参考 https://github.com/SakuraLLM/SakuraLLM/wiki

ChatGPT兼容接口

可以将Sakura大模型地址和模型填到这个的参数里面使用相比起来只是多了些预设prompt等参数其他无区别

也可以使用llama.cppollamaone-api之类的工具进行模型的部署,然后将地址和模型填入。

也可以使用Kaggle之类的平台来把模型部署到云端这时可能会需要用到SECRET_KEY其他时候可以无视SECRET_KEY参数。

也可以把注册的大模型的api填进来用但没必要和注册在线翻译下ChatGPT兼容接口相比除了不会使用代理外没有其他区别。