Ollama
Ollama uruchamia LLM lokalnie na Twoim VPS. Przyciągnij i obsłuż Lamę 3, Mistral, Phi, Gemmę i Qwen za pomocą jednego polecenia. Samodzielna sztuczna inteligencja bez klucza API, REST API kompatybilne z klientami OpenAI. Najprostsza ścieżka do prywatnego wnioskowania, używana przez ponad 200 000 programistów.
Wersja
Najnowszy
System operacyjny
Ubuntu Server 24.04 LTS
Min. BARAN
8 GB
Typy IP
IPV4, IPV6