LunaTranslator/docs/ru/offlinellm.md

21 lines
2.2 KiB
Markdown
Raw Normal View History

2024-09-18 12:01:52 +08:00
## Как использовать офлайн-перевод с большой моделью?
### Sakura Large Model
> Рекомендуется для использования, простая настройка, хорошие результаты, также может работать на чистом CPU с легкой моделью.
Методы развертывания
1. [Развертывание SakuraLLM на онлайн-платформе GPU](/zh/sakurallmcolab.md)
2. Другие методы развертывания можно найти на https://github.com/SakuraLLM/SakuraLLM/wiki
### Совместимый с ChatGPT интерфейс
Можно использовать адрес и модель **Sakura Large Model** в параметрах этого интерфейса (по сравнению с этим просто добавлены некоторые предварительно заданные prompt и другие параметры, других отличий нет).
Также можно использовать такие инструменты, как [TGW](https://github.com/oobabooga/text-generation-webui), [llama.cpp](https://github.com/ggerganov/llama.cpp), [ollama](https://github.com/ollama/ollama), [one-api](https://github.com/songquanpeng/one-api), для развертывания модели, а затем ввести адрес и модель.
Также можно использовать платформы, такие как Kaggle, для развертывания модели в облаке, в этом случае может потребоваться SECRET_KEY, в других случаях можно игнорировать параметр SECRET_KEY.
Также можно ввести API зарегистрированной большой модели (но это не обязательно), по сравнению с зарегистрированным онлайн-переводом с совместимым с ChatGPT интерфейсом, единственное отличие заключается в том, что не будет использоваться прокси.