Skip to content

Comment déployer un model d'IA local intégré à VScodium

ia

1. Installation

  • Installer Ollama:
curl -fsSL https://ollama.com/install.sh | sh
  • Télécharger le modèle:
ollama pull llama3:latest
  • Lancer le modèle:
ollama run llama3:latest

La console permet d'intéragir avec le modèle directement, Appuyer sur Ctrl+D

  • Installer le plugin continue:

continue

  • Cliquer sur le rouage en bas à droite:

continue

2. Configuration

  • Editer le fichier config.json:
{
  "models": [
    {
      "title": "Ollama",
      "provider": "ollama",
      "model": "llama3:latest",
      "apiBase": "http://localhost:11434/"
    }
  ]
}

Il devrait ressembler à ça:

continue

3. Gérer Ollama

  • Stopper le service:
sudo systemctl stop ollama
  • Démarrer le service:
sudo systemctl start ollama
  • Supprimer un modèle:
ollama rm <MODEL>
  • Modèles compatibles:

Ollama modèles librairie

  • Télécharger un modèle:
ollama pull <MODEL>