Ollama
Ollama provozuje LLM lokálně na vašem VPS. Vytáhni a posluž Llamu 3, Mistral, Phi, Gemmu a Qwen jedním příkazem. Samoobslužná AI bez klíče API, REST API kompatibilní s klienty OpenAI. Nejjednodušší cesta k soukromým závěrům, kterou používá více než 200 000 vývojářů.
Verze
Nejnovější
Operační systém
Ubuntu Server 24.04 LTS
Min. BERAN
8 GB
Typy IP
IPV4, IPV6