Problemes LLM Connect¶
Erreur Ollama 500¶
Une erreur 500 d'Ollama signifie generalement que le modele est trop gros pour votre memoire disponible.
Diagnostic¶
ollama list # Modeles installes
ollama ps # Modele charge + utilisation GPU
ollama run qwen3.5:4b # Tester directement
Si ollama ps affiche 0% GPU, l'inference est entierement sur CPU et sera lente.
Solution : Utiliser un modele plus petit¶
| RAM/VRAM disponible | Modele recommande |
|---|---|
| 4 Go | qwen3.5:2b |
| 8 Go | qwen3.5:4b |
| 16+ Go (ou 8+ Go VRAM) | qwen3.5:8b |
Puis selectionnez le nouveau modele dans les parametres LLM Connect.
Ollama non detecte¶
Solution : Renseignez manuellement l'URL dans LLM Connect :
- Ollama local :
http://localhost:11434 - Ollama distant :
http://<ip-serveur>:11434
Le LLM ajoute des guillemets ou des balises¶
Certains modeles enveloppent leur sortie dans des guillemets ("...") ou ajoutent des balises <think>...</think>.
Solutions :
- Utilisez les modeles recommandes : Qwen 3.5, Ministral
- Ajoutez a votre prompt systeme : "Donne uniquement le resultat. Pas de guillemets, pas de reflexion, pas d'explication."
Le LLM est tres lent¶
- Pas de GPU : L'inference sur CPU est lente. Essayez un modele plus petit.
- Modele trop gros : S'il ne tient pas en VRAM, il tombe sur le CPU. Verifiez avec
ollama ps. - Premiere requete : Plus lente (chargement du modele). Les suivantes sont plus rapides.
Problemes de connexion au serveur distant¶
- Verifiez que le serveur est accessible :
curl http://<serveur>:<port>/api/tags - Verifiez les pare-feu des deux machines
- L'URL dans Murmure doit inclure le protocole (
http://ouhttps://) - Pour Ollama, assurez-vous que
OLLAMA_HOST=0.0.0.0est defini sur le serveur
Support proxy
Le proxy HTTP pour LLM Connect n'est pas encore supporte. Commentez sur #286 si vous en avez besoin.