🦥Présentation d’Unsloth Studio
Exécutez et entraînez des modèles d'IA localement avec Unsloth Studio.
Aujourd’hui, nous lançons Unsloth Studio (Bêta) : une interface web open source sans code pour entraîner, exécuter et exporter des modèles ouverts dans une seule locale interface.
Démarrage rapideFonctionnalitésGithub
Exécuter GGUF et des modèles safetensor localement sur Mac, Windows, Linux.
Entraînez plus de 500 modèles 2x plus vite avec 70 % de VRAM en moins (sans perte de précision)
Exécutez et entraînez des modèles de texte, vision, TTS audio et embeddings
Pour toutes les dernières mises à jour, consultez notre nouvelle page de changelog ici! ✨

MacOS et CPU fonctionnent pour Chat l’inférence GGUF et les recettes de données. L’entraînement MLX arrive bientôt.
Aucun jeu de données nécessaire. Création automatique de jeux de données à partir de fichiers PDF, CSV, JSON, DOCX, TXT .
Exportez ou enregistrez votre modèle en GGUF, safetensor 16 bits, etc.
Appel d’outils auto-réparateur / recherche web + exécution de code
Réglage automatique des paramètres d’inférence et modification des modèles de chat.
⭐ Fonctionnalités
Exécuter des modèles localement
Rechercher et exécuter des modèles GGUF et safetensor avec appel d’outils auto-réparateur / recherche web, réglage automatique des paramètres d’inférence, exécution de code (Bash + Python), API (très bientôt). Téléversez des images, des documents, de l’audio, du code.
Comparez les modèles côte à côte. Propulsés par llama.cpp + Hugging Face, nous prenons en charge l’inférence multi-GPU et la plupart des modèles.

Exécuter du code + réparer l’appel d’outils
Unsloth Studio permet aux LLM d’exécuter Bash et Python, pas seulement JavaScript. Il met également les programmes en bac à sable, comme Claude Artifacts, afin que les modèles puissent tester du code, générer des fichiers et vérifier les réponses avec de vrais calculs.
Par exemple, Qwen3.5-4B a consulté plus de 20 sites web et cité des sources, avec la recherche web intégrée dans sa trace de réflexion.

Entraînement sans code
Téléversez des PDF, CSV, JSON des documents ou des configurations YAML et commencez l’entraînement instantanément sur NVIDIA. Les noyaux d’Unsloth optimisent LoRA, FP8, FFT, PT sur plus de 500 modèles de texte, vision, TTS/audio et embeddings.
Affinez les derniers LLM comme Qwen3.5 et NVIDIA Nemotron 3. Multi-GPU fonctionne automatiquement, avec une nouvelle version à venir.

les recettes de données
les recettes de données transforme vos documents en jeux de données exploitables / synthétiques via un flux de travail en graphe de nœuds. Téléversez des fichiers non structurés ou structurés comme des PDF, CSV et JSON. Unsloth Data Recipes, propulsé par NVIDIA Nemo Data Designer, transforme automatiquement les documents dans les formats souhaités.

Observabilité
Obtenez une visibilité complète sur vos sessions d’entraînement et le contrôle de celles-ci. Suivez en temps réel la perte d’entraînement, les normes de gradient et l’utilisation du GPU, et personnalisez selon vos envies.
Vous pouvez même consulter la progression de l’entraînement sur d’autres appareils comme votre téléphone.

Exporter / Enregistrer les modèles
Exportez n’importe quel modèle, y compris vos modèles affinés, vers safetensors ou GGUF pour une utilisation avec llama.cpp, vLLM, Ollama, LM Studio, et plus encore.
Stocke l’historique de votre entraînement, afin que vous puissiez revisiter les exécutions, exporter à nouveau et expérimenter.

Arène des modèles
Discutez avec et comparez 2 modèles différents, comme un modèle de base et un modèle affiné, pour voir comment leurs sorties diffèrent.
Chargez simplement votre premier GGUF/modèle, puis le second, et voilà ! L’inférence chargera d’abord un modèle, puis le second.

Priorité à la confidentialité + sécurisé
Unsloth Studio peut être utilisé 100 % hors ligne et localement sur votre ordinateur. Son authentification par jetons, y compris le mot de passe chiffré et les flux d’accès / de rafraîchissement JWT, protège vos données.
Vous pouvez utiliser des modèles / GGUF existants / anciens que vous avez précédemment téléchargés depuis HF, etc. Lisez les instructions ici.

Veuillez noter qu’il s’agit de la version BÊTA d’Unsloth Studio. Attendez-vous à de nombreuses améliorations, corrections et nouvelles fonctionnalités dans les jours et semaines à venir.
⚡ Démarrage rapide
Unsloth Studio fonctionne sous Windows, Linux, WSL et MacOS (chat uniquement pour le moment).
CPU : Unsloth fonctionne toujours sans GPU, mais uniquement pour Chat l’inférence et les recettes de données.
Entraînement : Fonctionne sur NVIDIA : RTX 30, 40, 50, Blackwell, DGX Spark/Station, etc. + Intel GPU
Mac : Comme le CPU - Chat et les recettes de données fonctionne uniquement pour le moment. MLX l’entraînement arrive très bientôt.
AMD : Le chat fonctionne. Entraînez avec Unsloth Core. La prise en charge de Studio arrive bientôt.
Bientôt disponible : prise en charge de l’entraînement pour Apple MLX et AMD.
Multi-GPU : Fonctionne déjà, avec une amélioration majeure en préparation.
Utilisez les mêmes commandes d’installation ci-dessous pour mettre à jour :
MacOS, Linux, WSL :
Windows PowerShell :
Lancer Unsloth
Docker :
Utilisez notre image Docker: officielle unsloth/unsloth qui fonctionne actuellement sous Windows, WSL et Linux. La prise en charge de MacOS arrive bientôt.
La première installation devrait maintenant être 6x plus rapide et 50 % plus légère grâce aux binaires llama.cpp précompilés.
Pour plus de détails sur l’installation et la désinstallation, veuillez consulter la section Installation d’Unsloth Studio .
Installation Notebook Google Colab
Nous avons créé un notebook Google Colab gratuit afin que vous puissiez explorer toutes les fonctionnalités d’Unsloth sur les GPU T4 de Colab. Vous pouvez entraîner et exécuter la plupart des modèles jusqu’à 22B de paramètres, et passer à un GPU plus puissant pour des modèles plus gros. Cliquez simplement sur « Run all » et l’interface devrait apparaître après l’installation.
Une fois l’installation terminée, faites défiler jusqu’à Démarrer Unsloth Studio et cliquez sur Ouvrir Unsloth Studio dans la boîte blanche affichée à gauche :
Faites encore défiler vers le bas pour voir l’interface réelle.

Parfois, le lien Studio peut renvoyer une erreur. Cela se produit parce que vous avez peut-être désactivé les cookies, ou que vous utilisez un bloqueur de publicités ou Mozilla. Vous pouvez toujours accéder à l’interface en faisant défiler sous le bouton.
Flux de travail
Voici un flux de travail habituel d’Unsloth Studio pour vous aider à démarrer :
Lancer Studio depuis les instructions d’installation.
Charger un modèle depuis des fichiers locaux ou une intégration prise en charge.
Importer des données d’entraînement à partir de fichiers PDF, CSV ou JSONL, ou créer un jeu de données à partir de zéro.
Nettoyer, affiner et enrichir votre jeu de données dans les recettes de données.
Commencer l’entraînement avec les préréglages recommandés ou personnaliser vous-même la configuration.
Discuter avec le modèle entraîné et comparer ses sorties à celles du modèle de base.
Enregistrer ou exporter localement vers la pile que vous utilisez déjà.
Vous pouvez lire nos analyses détaillées de chacune des sections d’Unsloth Studio :
Tutoriels vidéo
Les versions d’Unsloth Studio montrées dans les vidéos sont anciennes et ne reflètent pas la version actuelle.
Voici un tutoriel vidéo créé par NVIDIA pour vous aider à démarrer avec Studio :
Tutoriel vidéo : comment installer Unsloth Studio
FAQ
Unsloth collecte-t-il ou stocke-t-il des données ? Unsloth ne collecte pas de télémétrie d’utilisation. Unsloth ne collecte que les informations matérielles minimales requises pour la compatibilité, telles que le type de GPU et l’appareil (par ex. Mac). Unsloth Studio fonctionne 100 % hors ligne et localement.
Comment utiliser un ancien modèle / un modèle existant que j’ai téléchargé auparavant depuis Hugging Face ? Oui, vous pouvez utiliser des modèles existants / anciens ou des GGUF que vous avez précédemment téléchargés depuis Hugging Face, etc. Ils devraient maintenant être détectés automatiquement par Unsloth, sinon lisez nos les instructions ici.
Pourquoi l’inférence est-elle parfois plus lente dans Unsloth ? Unsloth, comme d’autres applications d’inférence locale, est propulsé par llama.cpp, donc les vitesses devraient être globalement les mêmes. Parfois, Unsloth peut être plus lent parce que vous avez activé la recherche web, l’exécution de code, ou l’appel d’outils auto-réparateur. Toutes ces fonctionnalités peuvent ralentir l’inférence. Si la différence de vitesse reste plus lente avec toutes les fonctionnalités désactivées, veuillez ouvrir un ticket GitHub !
Unsloth Studio prend-il en charge les API compatibles OpenAI ? Oui, pour nos Data Recipes, c’est le cas. Pour l’inférence, nous y travaillons et espérons publier la prise en charge dès cette semaine, alors restez à l’écoute !
Unsloth est-il désormais sous licence AGPL-3.0 ? Unsloth utilise un modèle de double licence Apache 2.0 et AGPL-3.0. Le package central Unsloth reste sous licence Apache 2.0, tandis que certains composants optionnels, comme l’interface d’Unsloth Studio, sont sous licence AGPL-3.0.
Cette structure aide à soutenir le développement continu d’Unsloth tout en gardant le projet open source et en permettant à l’écosystème plus large de continuer à se développer.
Studio ne prend-il en charge que les LLM ?
Non. Studio prend en charge une gamme de familles de modèles compatibles transformers , y compris les modèles de texte, multimodaux, texte vers la parole, audio, embeddings, et les modèles de type BERT.
Puis-je utiliser ma propre configuration d’entraînement ? Oui. Importez une configuration YAML et Studio remplira automatiquement les paramètres pertinents.
Comment puis-je ajuster la longueur de mon contexte ? L’ajustement de la longueur de contexte n’est plus nécessaire avec le contexte automatique intelligent de llama.cpp, qui n’utilise que le contexte dont vous avez besoin sans charger quoi que ce soit de plus. Cependant, nous ajouterons bientôt cette fonctionnalité au cas où vous voudriez l’utiliser.
Faut-il entraîner des modèles pour utiliser l’interface ? Non, vous pouvez simplement télécharger n’importe quel GGUF ou modèle sans affiner aucun modèle.
Avenir d’Unsloth
Nous travaillons dur pour rendre l’IA open source aussi accessible que possible. Prochainement pour Unsloth et Unsloth Studio, nous publierons la prise en charge officielle de : multi-GPU, Apple Silicon/MLX et AMD. Rappel : il s’agit de la version BÊTA d’Unsloth Studio, donc attendez-vous à de nombreuses annonces et améliorations dans les semaines à venir. Nous travaillons également en étroite collaboration avec NVIDIA sur la prise en charge multi-GPU afin d’offrir l’expérience la meilleure et la plus simple possible.
Remerciements
Un immense merci à NVIDIA et Hugging Face d’avoir participé à notre lancement. Merci également à tous nos premiers testeurs bêta d’Unsloth Studio ; nous apprécions sincèrement votre temps et vos retours. Nous souhaitons également remercier llama.cpp, PyTorch et open model labs pour avoir fourni l’infrastructure qui a rendu Unsloth Studio possible.

Mis à jour
Ce contenu vous a-t-il été utile ?

