mirror of
https://github.com/HIllya51/LunaTranslator.git
synced 2024-12-29 00:24:13 +08:00
docs
This commit is contained in:
parent
e385d9abb8
commit
130cb6bba3
@ -1,18 +1,8 @@
|
|||||||
## How to Use Large Model Offline Translation?
|
## How to Use Large Model Offline Translation?
|
||||||
|
|
||||||
### Sakura Large Model
|
|
||||||
|
|
||||||
> Recommended for use, simple configuration, good results, and can also run lightweight models purely on CPU.
|
|
||||||
|
|
||||||
Deployment Methods
|
|
||||||
|
|
||||||
1. [Deploy SakuraLLM to an Online GPU Platform](/zh/sakurallmcolab.md)
|
|
||||||
|
|
||||||
2. Other deployment methods can be referred to at https://github.com/SakuraLLM/SakuraLLM/wiki
|
|
||||||
|
|
||||||
### ChatGPT Compatible Interface
|
### ChatGPT Compatible Interface
|
||||||
|
|
||||||
You can fill in the **Sakura Large Model** address and model into the parameters of this interface (compared to this, it only adds some preset prompts and other parameters, with no other differences).
|
|
||||||
|
|
||||||
You can also use tools like [TGW](https://github.com/oobabooga/text-generation-webui), [llama.cpp](https://github.com/ggerganov/llama.cpp), [ollama](https://github.com/ollama/ollama), [one-api](https://github.com/songquanpeng/one-api) to deploy models, and then fill in the address and model.
|
You can also use tools like [TGW](https://github.com/oobabooga/text-generation-webui), [llama.cpp](https://github.com/ggerganov/llama.cpp), [ollama](https://github.com/ollama/ollama), [one-api](https://github.com/songquanpeng/one-api) to deploy models, and then fill in the address and model.
|
||||||
|
|
||||||
|
@ -1,19 +1,8 @@
|
|||||||
## Как использовать офлайн-перевод с большой моделью?
|
## Как использовать офлайн-перевод с большой моделью?
|
||||||
|
|
||||||
### Sakura Large Model
|
|
||||||
|
|
||||||
> Рекомендуется для использования, простая настройка, хорошие результаты, также может работать на чистом CPU с легкой моделью.
|
|
||||||
|
|
||||||
Методы развертывания
|
|
||||||
|
|
||||||
1. [Развертывание SakuraLLM на онлайн-платформе GPU](/zh/sakurallmcolab.md)
|
|
||||||
|
|
||||||
2. Другие методы развертывания можно найти на https://github.com/SakuraLLM/SakuraLLM/wiki
|
|
||||||
|
|
||||||
### Совместимый с ChatGPT интерфейс
|
### Совместимый с ChatGPT интерфейс
|
||||||
|
|
||||||
Можно использовать адрес и модель **Sakura Large Model** в параметрах этого интерфейса (по сравнению с этим просто добавлены некоторые предварительно заданные prompt и другие параметры, других отличий нет).
|
|
||||||
|
|
||||||
Также можно использовать такие инструменты, как [TGW](https://github.com/oobabooga/text-generation-webui), [llama.cpp](https://github.com/ggerganov/llama.cpp), [ollama](https://github.com/ollama/ollama), [one-api](https://github.com/songquanpeng/one-api), для развертывания модели, а затем ввести адрес и модель.
|
Также можно использовать такие инструменты, как [TGW](https://github.com/oobabooga/text-generation-webui), [llama.cpp](https://github.com/ggerganov/llama.cpp), [ollama](https://github.com/ollama/ollama), [one-api](https://github.com/songquanpeng/one-api), для развертывания модели, а затем ввести адрес и модель.
|
||||||
|
|
||||||
Также можно использовать платформы, такие как Kaggle, для развертывания модели в облаке, в этом случае может потребоваться SECRET_KEY, в других случаях можно игнорировать параметр SECRET_KEY.
|
Также можно использовать платформы, такие как Kaggle, для развертывания модели в облаке, в этом случае может потребоваться SECRET_KEY, в других случаях можно игнорировать параметр SECRET_KEY.
|
||||||
|
Loading…
x
Reference in New Issue
Block a user