Ollama
Ollama exécute des LLM localement sur votre VPS. Tirez et servez Llama 3, Mistral, Phi, Gemma et Qwen avec une seule commande. IA auto-hébergée sans clé API, API REST compatible avec les clients OpenAI. Le chemin le plus simple vers l'inférence privée, utilisé par plus de 200 000 développeurs.
Version
Dernier
Système d'exploitation
Ubuntu Server 24.04 LTS
Min. RAM
8 GB
Types d'IP
IPV4,IPV6