En un coup d'œil

Continue est une extension VS Code open source qui apporte les fonctionnalités de GitHub Copilot à votre éditeur — mais en vous laissant choisir le modèle IA. Connectez-le à Ollama pour une solution 100% gratuite et locale.

Qu'est-ce que c'est ?

Continue.dev est un projet open source qui s'intègre à VS Code et JetBrains comme GitHub Copilot, mais avec une différence fondamentale : vous choisissez le modèle IA. Ollama en local, Groq, Mistral, OpenAI, Anthropic — Continue supporte tout via une configuration simple.

Ce que ça fait vraiment

  • Autocomplétion inline : suggestions de code en temps réel pendant que vous tapez, comme Copilot
  • Chat : posez des questions sur votre code, demandez des refactorisations, expliquez des fonctions
  • Edit (Cmd+I) : sélectionnez du code, décrivez la modification, Continue l'applique
  • Contexte étendu : @file, @codebase, @terminal — référencez des fichiers ou l'output de votre terminal
  • Personnalisable : configurez le modèle de complétion et de chat séparément
// ~/.continue/config.json (exemple avec Ollama gratuit)
{
  "models": [{
    "title": "Llama 3.2",
    "provider": "ollama",
    "model": "llama3.2"
  }],
  "tabAutocompleteModel": {
    "title": "Qwen 2.5 Coder",
    "provider": "ollama",
    "model": "qwen2.5-coder:1.5b"
  }
}

Pour qui c'est fait ?

Développeurs qui veulent un assistant de code sans payer GitHub Copilot (10$/mois), équipes en entreprise qui ne peuvent pas envoyer leur code vers des APIs externes, développeurs qui veulent contrôler précisément le modèle utilisé.

Les limites à connaître

Avec des modèles locaux (Ollama), la qualité de l'autocomplétion est inférieure à Copilot ou Cursor sur les projets complexes. La configuration initiale demande quelques minutes. Les modèles de code spécialisés (Qwen 2.5 Coder, DeepSeek Coder) donnent de meilleurs résultats que les modèles généralistes pour l'autocomplétion.

Comment démarrer

  • Installez l'extension Continue depuis le marketplace VS Code
  • Installez Ollama et téléchargez un modèle de code : ollama pull qwen2.5-coder:1.5b
  • Continue détecte automatiquement Ollama — la configuration est pré-remplie
  • Utilisez Cmd+I (Mac) ou Ctrl+I (Windows) pour éditer une sélection de code
  • Ouvrez le chat Continue avec Cmd+L pour poser des questions sur votre projet