🦥Docs Unsloth

Entraînez votre propre modèle avec Unsloth, un framework open-source pour l'ajustement fin des LLM et l'apprentissage par renforcement.

Chez Unsloth, notre mission est de rendre l'IA aussi précise et accessible que possible. Entraînez et déployez DeepSeek, gpt-oss, Llama, TTS, Qwen, Gemma LLMs 2x plus rapidement avec 70% de VRAM en moins.

Nos docs vous guideront pour exécuter et entraîner votre propre modèle localement.

Commencer Notre GitHub

🦥 Pourquoi Unsloth ?

⭐ Fonctionnalités clés

  • Prend en charge le fine-tuning complet, le pré-entraînement, l'entraînement 4 bits, 16 bits et 8 bits.

  • Prend en charge tous types de modèles: TTS,arrow-up-right embedding, multimodal, et plus encore.

  • La plus efficace bibliothèque d'apprentissage par renforcement utilisant 80% de VRAM en moins. Prend en charge GRPO, GSPO, etc.

  • 0% de perte de précision - pas de méthodes de quantification ou d'approximation - tout est exact.

  • MultiGPU fonctionne déjà mais une version bien meilleure arrive !

Démarrage rapide

Unsloth prend en charge Linux, Windows, NVIDIA, AMD & Intel. Voir : Exigences d'Unsloth

Installez localement avec pip (recommandé) pour les appareils Linux ou WSL :

Utilisez notre image Docker: unsloth/unsloth. Lisez notre guide Docker.

Pour les instructions d'installation sous Windows, voir ici.

Nouveaux modèles

Qu'est-ce que le fine-tuning et le RL ? Pourquoi ?

Fine-tuning un LLM personnalise son comportement, améliore les connaissances de domaine et optimise les performances pour des tâches spécifiques. En affinant un modèle pré-entraîné (par ex. Llama-3.1-8B) sur un jeu de données, vous pouvez :

  • Mettre à jour les connaissances : Introduire de nouvelles informations spécifiques au domaine.

  • Personnaliser le comportement : Ajuster le ton, la personnalité ou le style de réponse du modèle.

  • Optimiser pour des tâches : Améliorer la précision et la pertinence pour des cas d'utilisation spécifiques.

Apprentissage par renforcement (RL) est là où un « agent » apprend à prendre des décisions en interagissant avec un environnement et en recevant retour d'information sous la forme de récompenses ou pénalités.

  • Action : Ce que le modèle génère (par ex. une phrase).

  • Récompense : Un signal indiquant si l'action du modèle était bonne ou mauvaise (par ex. la réponse a-t-elle suivi les instructions ? était-elle utile ?).

  • Environnement : Le scénario ou la tâche sur lequel le modèle travaille (par ex. répondre à la question d'un utilisateur).

Exemples de cas d'utilisation de fine-tuning ou RL:

  • Permet aux LLM de prédire si un titre a un impact positif ou négatif sur une entreprise.

  • Peut utiliser les interactions historiques des clients pour des réponses plus précises et personnalisées.

  • Affinez un LLM sur des textes juridiques pour l'analyse de contrats, la recherche de jurisprudence et la conformité.

Vous pouvez considérer un modèle affiné comme un agent spécialisé conçu pour accomplir des tâches spécifiques plus efficacement et plus efficacement. Le fine-tuning peut reproduire toutes les capacités du RAG, mais pas l'inverse.

Mis à jour

Ce contenu vous a-t-il été utile ?