📒Unslothは主に2つの方法で使用できます:当社の無料ノートブックか、ローカルでの使用です。
ファインチューニング用ノートブック:Unsloth カタログを探索。
無料GPUコンピュートを活用したノートブックで自分のモデルをトレーニングできます。Run allをクリックする(またはローカルに保存)、データセットを追加、トレーニング、デプロイしてください。ノートブック内の任意のモデルを使用できます。
GRPO(強化学習)テキスト読み上げ(Text-to-speech)ビジョン埋め込み(Embedding)Kaggle
ノートブックは当社のGitHubリポジトリもご覧ください: github.com/unslothai/notebooks
Colabノートブック
標準SFTノートブック:
Gemma 3(4B) • テキスト • ビジョン • 270M • FunctionGemma
Gemma 3n(E4B) • テキスト • ビジョン • オーディオ
GRPO(推論用RL):
gpt-oss-20b (自動カーネル作成)
Mistral Ministral 3 (数独を解く) - 新
Qwen3-8B - FP8 (L4) - 新
Llama-3.2-1B - FP8 (L4) - 新
gpt-oss-20b (2048ゲームを自動で勝つ)
Qwen3-VL(8B) - Vision GSPO
Qwen3(4B) - 高度なGRPO LoRA
Gemma 3(4B) - Vision GSPO
gpt-oss-20b (2048 OpenEnv例)
DeepSeek-R1-0528-Qwen3(8B) (多言語ユースケース向け)
Llama 3.2(3B) - 高度なGRPO LoRA
NeMo Gym マルチ環境 (複数環境)
テキスト読み上げ(TTS):
Whisper Large V3 - 音声→テキスト(STT)
音声→テキスト(SST):
Gemma 3n(E4B) - オーディオ
ビジョン(マルチモーダル):
Qwen3-VL - Vision GSPO - 新
Qwen2.5-VL - Vision GSPO
Gemma 3(4B) - Vision GSPO
埋め込みモデル:
BGE M3 - 新
ModernBERT-large - 新
All-MiniLM-L6-v2 - 新
GTE ModernBert - 新
大型LLM:
大規模モデル用ノートブック: これらはColabの無料15GB VRAM層を超えます。Colabの新しい80GB GPUでは、120Bパラメータモデルを微調整できます。
Colabのサブスクリプションまたはクレジットが必要です。私たちは 何も これらのノートブックから収益を得ていません。
Qwen3.5-35B-A3B - 新
Qwen3.5‑27B - 新
GLM-4.7-Flash - 新
その他の重要なノートブック:
Mistral Ministral 3 - 新(数独を解く)
LM Studioにデプロイ - 新
量子化対応トレーニング(Quantization-Aware Training) (QAT) - 新
自動カーネル作成 RLあり
ModernBERT-large - 新 8月19日
gpt-oss-20b(500Kコンテキスト) - 新(A100)
特定ユースケース向けノートブック:
LM Studioにデプロイ - 新
Mobile Actions - 新
量子化対応トレーニング(Quantization-Aware Training) (QAT) - 新
自動カーネル作成 RLあり - 新
BERT - テキスト分類 -(AutoModelForSequenceClassification)
複数データセット by Flail
KTO by Jeffrey
その他のノートブック:
Kaggleノートブック
標準ノートブック:
gpt-oss(20B) - 新
GRPO(推論)ノートブック:
Qwen2.5-VL - Vision GRPO - 新
テキスト読み上げ(TTS)ノートブック:
Whisper Large V3 – 音声→テキスト
ビジョン(マルチモーダル)ノートブック:
特定ユースケース向けノートブック:
その他のノートブック:
当社のすべてのKaggleノートブックの完全な一覧を表示するには、 ここをクリック.
ノートブックへの貢献はお気軽に、当社のリポジトリを訪れてください リポジトリ!
最終更新
役に立ちましたか?

