Ollama
Ollama draait LLM’s lokaal op jouw VPS. Trek en bedien Llama 3, Mistral, Phi, Gemma en Qwen met één commando. Zelf-gehoste AI zonder API-sleutel, REST API compatibel met OpenAI-clients. Het eenvoudigste pad naar privé-inferentie, gebruikt door meer dan 200.000 ontwikkelaars.
Versie
Nieuwste
Besturingssysteem
Ubuntu Server 24.04 LTS
Min. RAM
8 GB
IP-types
IPV4,IPV6