Ollama
Ollama kører LLM'er lokalt på din VPS. Træk og server Llama 3, Mistral, Phi, Gemma og Qwen med én kommando. Selvhostet AI uden en API-nøgle, REST API kompatibel med OpenAI-klienter. Den enkleste vej til privat slutning, brugt af 200.000+ udviklere.
Version
Seneste
Operativsystem
Ubuntu Server 24.04 LTS
Min. RAM
8 GB
IP-typer
IPV4, IPV6