Releases: fkiliver/SakuraTranslator
Releases · fkiliver/SakuraTranslator
v0.3.10
What's Changed
- 合并GalTransl模型名称,根据HuggingFace修改模型参数
⚠️ GalTransl14B已失效,注意修改为GalTransl- 添加
TemperatureOverride及TopPOverride选项
注意
- 本版本使用XUnity.AutoTranslator 5.4.4版本构建,请确保使用XUnity.AutoTranslator 5.4.4或以上版本
SakuraTranslate_IL2CPP.dll为IL2CPP游戏专用,若你不知道这是什么,请使用SakuraTranslate.dll
Full Changelog: v0.3.9...v0.3.10
v0.3.9
What's Changed
- 添加GalTransl 14B V3支持
注意
- 本版本使用XUnity.AutoTranslator 5.4.4版本构建,请确保使用XUnity.AutoTranslator 5.4.4或以上版本
SakuraTranslate_IL2CPP.dll为IL2CPP游戏专用,若你不知道这是什么,请使用SakuraTranslate.dll
Full Changelog: v0.3.8...v0.3.9
v0.3.8
What's Changed
- 添加GalTranslV3支持
- 添加快速翻译选项(
EnableShortDelay,DisableSpamChecks)
注意
- 本版本使用XUnity.AutoTranslator 5.4.4版本构建,请确保使用XUnity.AutoTranslator 5.4.4或以上版本
SakuraTranslate_IL2CPP.dll为IL2CPP游戏专用,若你不知道这是什么,请使用SakuraTranslate.dll
Full Changelog: v0.3.7...v0.3.8
v0.3.7
v0.3.6
What's Changed
- 修复Sakura 1.0非完全字典构造,移除Newtonsoft.Json依赖 by @Tabing010102 in #24
Full Changelog: v0.3.5...v0.3.6
v0.3.5
What's Changed
- 更新GalTransl prompt、修复Sakura 0.8/0.9 by @Tabing010102 in #22
Full Changelog: v0.3.4...v0.3.5
v0.3.4
What's Changed
- Sakura 32B v0.10pre1 by @Tabing010102 in #10
- 补齐EscapeJsonString by @Tabing010102 in #13
- v0.3.4:添加Sakura V1.0、GalTransl V2.6支持 by @Tabing010102 in #21
- 优化代码结构,修改ID
Full Changelog: v0.3.2...v0.3.4
注意,项目id从SakuraTranslator修改为SakuraTranslate,请参考wiki重写配置文件
v0.3.2
What's Changed
- 修复并发翻译 by @Tabing010102 in #9
Full Changelog: v0.3.1...v0.3.2
添加并发参数MaxConcurrency,单卡多线程总体翻译速度比单线程高(3090,1线程约50t/s,5线程约5x35t/s)
如果你使用sakurav0.10pre0,你的配置文件应该长这样:
[Sakura]
Endpoint=http://127.0.0.1:5000/v1/chat/completions
ApiType=OpenAI
MaxConcurrency=1
UseDict=True
DictMode=Full
Dict={"たちばな":"橘","橘":"橘","あやの":"绫乃","綾乃":"绫乃"}
如果你使用sakurav0.9或0.8,你的配置文件应该长这样:
[Sakura]
Endpoint=http://127.0.0.1:8080/completion ##这里修改为你的模型server监听的地址
##如果使用kaggle,请在你的链接后面加上/v1/chat/completions,例如:https://114514-1919-810.ngrok-free.app/v1/chat/completions
MaxConcurrency=1
ApiType=Qwen ##OpenAI为kaggle上SakuraAPI,Qwen为本地Sakura 0.9模型,空置则为本地Sakura 0.8模型
v0.3.1
What's Changed
- 去除结尾多余句号,添加并发配置 by @Tabing010102 in #8
Full Changelog: v0.3.0...v0.3.1
添加并发参数MaxConcurrency,单卡多线程总体翻译速度比单线程高(3090,1线程约50t/s,5线程约5x35t/s)
如果你使用sakurav0.10pre0,你的配置文件应该长这样:
[Sakura]
Endpoint=http://127.0.0.1:5000/v1/chat/completions
ApiType=OpenAI
MaxConcurrency=1
UseDict=True
DictMode=Full
Dict={"たちばな":"橘","橘":"橘","あやの":"绫乃","綾乃":"绫乃"}
如果你使用sakurav0.9或0.8,你的配置文件应该长这样:
[Sakura]
Endpoint=http://127.0.0.1:8080/completion ##这里修改为你的模型server监听的地址
##如果使用kaggle,请在你的链接后面加上/v1/chat/completions,例如:https://114514-1919-810.ngrok-free.app/v1/chat/completions
MaxConcurrency=1
ApiType=Qwen ##OpenAI为kaggle上SakuraAPI,Qwen为本地Sakura 0.9模型,空置则为本地Sakura 0.8模型
Sakura Translator v0.3.0
What's Changed
- 添加v0.10pre0的字典支持 by @Tabing010102 in #6
Full Changelog: v0.2.2...v0.3.0
添加配置(仅在OpenAI模式下生效)
UseDict默认为空字符串DictMode默认为FullDict默认为空字符串
其中
UseDict为false时是老的OpenAI PromptDictMode为Full时传递整个字典,为Partial或其他时,传递当前翻译句子包含的字典部分Dict为json编码的字符串,格式同MTool,为{"k1":"v1","k2":"v2"},暂未发现SakuraLLM官方示例中给的字典注释有什么作用
llama.cpp-b2355,sakura-13b-qwen2beta-v0.10pre0-Q6_K.gguf,Windows和Linux下测试
理论上高版本llama.cpp和Kaggle都能用,不过未测试Kaggle
如果你使用sakurav0.10pre0,你的配置文件应该长这样:
[Sakura]
Endpoint=http://127.0.0.1:5000/v1/chat/completions
ApiType=OpenAI
UseDict=True
DictMode=Full
Dict={"たちばな":"橘","橘":"橘","あやの":"绫乃","綾乃":"绫乃"}
如果你使用sakurav0.9或0.8,你的配置文件应该长这样:
[Sakura]
Endpoint=http://127.0.0.1:8080/completion ##这里修改为你的模型server监听的地址
##如果使用kaggle,请在你的链接后面加上/v1/chat/completions,例如:https://114514-1919-810.ngrok-free.app/v1/chat/completions
ApiType=Qwen ##OpenAI为kaggle上SakuraAPI,Qwen为本地Sakura 0.9模型,空置则为本地Sakura 0.8模型