Ollama
Ollama ejecuta LLMs localmente en tu VPS. Descarga y sirve Llama 3, Mistral, Phi, Gemma y Qwen con un solo comando. IA autoalojada sin clave API, compatible con clientes OpenAI mediante REST API. La forma más directa de hacer inferencia privada, usada por más de 200.000 desarrolladores.
Versión
Latest
Sistema operativo
Ubuntu Server 24.04 LTS
RAM mín.
8 GB
Tipos de IP
IPV4,IPV6