En un coup d'œil
Khoj est un assistant IA open source qui se connecte à vos propres données — notes Obsidian, fichiers Notion, PDFs, emails — et vous permet de les interroger en langage naturel. Votre second cerveau numérique, enfin interrogeable.
Qu'est-ce que c'est ?
Khoj est un projet open source fondé par Debanjum Singh Solanky. Il implémente un RAG (Retrieval-Augmented Generation) personnel : vos notes et documents sont indexés localement ou sur le cloud Khoj, et l'IA répond à vos questions en s'appuyant sur votre propre corpus de connaissance. La version cloud est gratuite ; la version self-hosted est 100% locale et gratuite.
Ce que ça fait vraiment
- Connecteurs natifs : Obsidian, Notion, Google Drive, GitHub, email (Gmail)
- Chat sur vos données : posez des questions sur ce que vous avez écrit, lu ou archivé
- Agents personnalisés : créez des agents spécialisés pour différents domaines de votre vie
- Recherche hybride : combine recherche sémantique (sens) et lexicale (mots-clés)
- Image et document : analysez des images et PDFs dans vos conversations
- Auto-hébergeable : déployez entièrement en local avec Ollama pour zéro donnée cloud
Vos sources (Obsidian, Notion, PDF)
↓
Indexation locale
↓
Question en langage naturel
↓
Retrieval → LLM → Réponse
avec citation de vos propres notes
Exemple concret : vous avez 3 ans de notes Obsidian sur des projets clients. Demandez à Khoj "Quels problèmes ai-je rencontrés avec des clients dans le secteur retail ?" → il cite les notes exactes où vous avez documenté ces situations.
Pour qui c'est fait ?
Knowledge workers qui accumulent des notes dans Obsidian ou Notion, chercheurs qui veulent interroger leur bibliothèque de références, professionnels qui veulent retrouver rapidement une information dans leur historique de travail, développeurs qui veulent un assistant contextualisé sur leurs repos GitHub.
Les limites à connaître
La version cloud gratuite est généreuse mais avec des limites de messages quotidiens. L'installation self-hosted nécessite Docker et quelques minutes de configuration. La qualité du retrieval dépend de la qualité et de la structure de vos notes — des notes bien formatées donnent de meilleurs résultats. La synchronisation avec Notion peut être lente sur de grandes workspaces.
Comment démarrer
Via le cloud (le plus simple) :
En self-hosted :
docker-compose up
Puis configurez votre LLM Ollama dans les paramètres