🔮Unsloth モデルカタログ
UnslothのすべてのLLMディレクトリ、 ダイナミック Hugging Face上のGGUF、4ビット、16ビットモデル。
DeepSeekLlamaGemmaQwenMistralPhi
GGUFs Ollama、Open WebUI、llama.cppなどのツールでモデルを実行できます。 Instruct(4ビット) safetensorsは推論やファインチューニングに使用できます。
新着・おすすめモデル:
モデル
バリアント
GGUF
Instruct(4ビット)
DeepSeekモデル:
モデル
バリアント
GGUF
Instruct(4ビット)
Llamaモデル:
Gemmaモデル:
Qwenモデル:
モデル
バリアント
GGUF
Instruct(4ビット)
Mistralモデル:
モデル
バリアント
GGUF
Instruct(4ビット)
Phiモデル:
その他(GLM、Orpheus、Smol、Llava等)モデル:
モデル
バリアント
GGUF
Instruct(4ビット)
16ビットおよび8ビットのInstructモデルは推論やファインチューニングに使用されます:
新しいモデル:
モデル
バリアント
Instruct(16ビット)
DeepSeekモデル
Llamaモデル
Gemmaモデル:
Qwenモデル:
ファミリー
バリアント
Instruct(16ビット)
QVQ(プレビュー)
72 B
—
Mistralモデル:
Phiモデル:
テキスト読み上げ(TTS)モデル:
ベースモデルは通常ファインチューニング用に使用されます:
新しいモデル:
Llamaモデル:
Qwenモデル:
Llamaモデル:
Gemmaモデル
Mistralモデル:
その他(TTS、TinyLlama)モデル:
FP8アップロードはトレーニングまたはサービング/デプロイに使用できます。
FP8 DynamicはFP8 Blockよりわずかに高速なトレーニングと低いVRAM使用量を提供しますが、精度に小さなトレードオフがあります。
モデル
バリアント
FP8(Dynamic / Block)
最終更新
役に立ちましたか?

