Sidekick

Une application locale pour discuter avec un LLM


🔍 En bref :

  • Discute avec un LLM local pour obtenir des informations à partir de fichiers, dossiers et sites web.
  • Utilise des modèles locaux comme Qwen3.5 via un backend llama.cpp intégré.
  • Supporte les API compatibles OpenAI pour des options de modèles supplémentaires.
  • Fonctionnalités avancées comme la génération d’images, la visualisation de données et l’édition de code.
  • Mémoire pour des réponses plus pertinentes et personnalisées.

🔍 En détail :
Sidekick est une application locale qui permet de discuter avec un LLM pour obtenir des informations à partir de fichiers, dossiers et sites web. Elle utilise des modèles locaux comme Qwen3.5 via un backend llama.cpp intégré, et supporte également les API compatibles OpenAI pour des options de modèles supplémentaires.

Sidekick peut accéder à des fichiers, dossiers et sites web configurés par l’utilisateur, et utilise le RAG (Retrieval Augmented Generation) pour trouver des informations pertinentes. Les utilisateurs peuvent également donner accès à des fichiers en les glissant-déposant dans le champ de saisie.

En plus de ses capacités de recherche, Sidekick offre des fonctionnalités avancées comme la génération d’images, la visualisation de données et l’édition de code. Il peut également appeler des fonctions pour améliorer les capacités mathématiques et logiques des modèles, et exécuter des actions.

Sidekick dispose également d’une fonctionnalité de mémoire pour des réponses plus pertinentes et personnalisées, et d’un mode Canvas pour créer, éditer et prévisualiser des sites web, du code et d’autres contenus textuels.


alt text
Gratuit
https://github.com/johnbean393/Sidekick


👋

Inscrivez-vous pour recevoir chaque semaine les derniers logiciels pour votre mac.

Nous ne spammons pas ! Consultez notre politique de confidentialité pour plus d’informations.

Views: 2