En un coup d'œil

Open WebUI est une interface web moderne et auto-hébergée pour vos modèles Ollama. Elle reproduit l'expérience de ChatGPT — conversations, historique, gestion multi-utilisateurs — mais sur votre propre serveur, avec zéro donnée envoyée à l'extérieur.

Qu'est-ce que c'est ?

Open WebUI est un projet open source qui fournit une interface web complète pour les modèles LLM locaux. Il se connecte à Ollama (et à d'autres backends) et expose une interface soignée accessible depuis n'importe quel navigateur sur votre réseau local ou internet si vous l'exposez.

Ce que ça fait vraiment

  • Interface ChatGPT-like : conversations, historique persistant, gestion des modèles
  • Multi-utilisateurs : créez des comptes pour votre équipe avec des permissions granulaires
  • RAG intégré : uploadez des documents pour les inclure dans le contexte des conversations
  • Génération d'images : connectez Stable Diffusion (Automatic1111 ou ComfyUI) pour générer des images
  • Outils et fonctions : ajoutez des capacités via des fonctions Python personnalisées
  • API compatible OpenAI : utilisez Open WebUI comme backend pour vos applications
# Installation avec Docker (le plus simple)
docker run -d   -p 3000:8080   --add-host=host.docker.internal:host-gateway   -v open-webui:/app/backend/data   --name open-webui   ghcr.io/open-webui/open-webui:main

Accédez ensuite à http://localhost:3000

Pour qui c'est fait ?

Équipes qui veulent un ChatGPT privé partagé en interne, développeurs qui construisent sur Ollama et veulent une interface de test, entreprises avec des contraintes de confidentialité strictes, individus qui veulent centraliser tous leurs modèles locaux dans une interface unique.

Les limites à connaître

L'installation nécessite Docker ou Python — une barrière pour les non-développeurs. Les performances dépendent du serveur qui héberge Open WebUI et d'Ollama (GPU recommandé pour un usage fluide). La configuration réseau pour l'exposer à internet nécessite des connaissances en réseau (reverse proxy, HTTPS).

Comment démarrer

  • Installez Docker Desktop sur votre machine
  • Assurez-vous qu'Ollama est installé et qu'un modèle est téléchargé
  • Exécutez la commande Docker ci-dessus
  • Ouvrez http://localhost:3000 dans votre navigateur
  • Créez votre compte administrateur et sélectionnez votre modèle Ollama