Ollama permet d'exécuter des grands modèles de langage localement en une seule commande. API compatible OpenAI, support pour Llama, Mistral, Gemma et des centaines d'autres. Le mode CPU fonctionne pour les petits modèles ; le GPU offre une inférence 10x plus rapide.
Point d'entrée idéal — inférence CPU pour les modèles 7-8B
Voir les serveurs correspondantsRecommandé — inférence à pleine vitesse pour les petits modèles
Voir les serveurs correspondantsPour les modèles 30-70B et les charges de travail production
Voir les serveurs correspondantsVous cherchez une configuration GPU spécifique ?
Parcourir tous les serveurs dédiés GPU →Installez Ollama avec une seule commande : curl -fsSL https://ollama.com/install.sh | sh. Elle gère tout — configuration du service, détection GPU et gestion des modèles.
Ollama expose une API REST compatible OpenAI. Toute application conçue pour ChatGPT fonctionne avec Ollama sans modification de code — changez simplement l'URL de base vers votre serveur.
Les modèles quantifiés (Q4_K_M) réduisent les besoins en VRAM d'environ 50% avec une perte de qualité minimale. Un modèle qui nécessite normalement 16 Go de VRAM tourne confortablement avec 8 Go.
Les petits modèles 7-8B fonctionnent sur CPU avec 16 Go de RAM — utile pour le développement et les tests. Un GPU avec 8+ Go de VRAM offre une inférence 10x plus rapide, la rendant viable en production.
Ollama est la façon la plus simple d'exécuter des grands modèles de langage open source sur votre propre infrastructure. Une seule commande d'installation vous donne un serveur LLM local avec une API compatible OpenAI — pointez vos applications existantes dessus sans modifier le code. Les petits modèles comme Llama 3 8B et Mistral 7B fonctionnent sur CPU avec 16 Go de RAM, ce qui convient au développement et à l'expérimentation. Pour un usage en production ou une inférence plus rapide, un serveur GPU avec 8+ Go de VRAM offre 10x la vitesse. Les plans VPS Dedimax à partir de 9,99€/mois couvrent les charges de travail CPU ; les serveurs dédiés GPU gèrent tout, des modèles 7B aux 70B.
Prenez les manettes de votre serveur dédié (configuration, données hébergées…) sans limites dans l'installation de vos applications.
Alors, vous nous rejoignez quand ?
On vous attend sur notre forum collaboratif. Déjà plus de 70 tutoriels en ligne (sysadmin, gaming, devops...) !
ça m'interesse