En un coup d'œil
Jan est une application de bureau qui reproduit l'expérience ChatGPT mais en local, sur votre ordinateur, sans envoyer une seule donnée sur internet. Interface soignée, modèles téléchargeables en un clic, compatible Mac, Windows et Linux.
Qu'est-ce que c'est ?
Jan est un projet open source développé par Menlo Research. Son objectif : démocratiser l'IA locale avec une interface aussi simple que ChatGPT mais entièrement souveraine. Il intègre un hub de modèles, un gestionnaire de téléchargement et une API locale compatible OpenAI.
Ce que ça fait vraiment
- Hub de modèles : parcourez et téléchargez des modèles (Llama, Mistral, Phi, Gemma) directement depuis l'interface
- Conversations locales : votre historique reste sur votre machine, chiffré
- Extensions : système de plugins pour ajouter des fonctionnalités (recherche web locale, RAG sur vos fichiers)
- API serveur : exposez une API compatible OpenAI pour vos applications tierces
- Modèles cloud optionnels : connectez aussi des APIs externes (OpenAI, Groq, Mistral) depuis la même interface
Interface Jan
↓
Modèle local (Llama 3.2 3B)
↓
Réponse sans connexion internet
Exemple concret : vous êtes consultant et travaillez sur des documents clients confidentiels. Jan vous permet de résumer ces documents, extraire des insights et rédiger des synthèses — sans qu'une seule ligne ne quitte votre ordinateur.
Pour qui c'est fait ?
Professionnels de secteurs réglementés (santé, droit, finance, défense), développeurs qui veulent une API locale pour leurs tests, utilisateurs soucieux de confidentialité, curieux qui veulent comprendre les LLMs sans dépendre du cloud.
Les limites à connaître
Les modèles locaux sont plus lents que les services cloud, surtout sans GPU. Le téléchargement initial des modèles prend du temps et de l'espace disque (de 1,5 Go à 40 Go selon la taille). Sur les machines avec peu de RAM, les modèles les plus capables ne peuvent pas tourner.