50% off alle planer, begrænset periode. Fra kun $2.48/mo

Ollama VPS Hosting

Kør open-source
LLMs på din VPS.

Ollama-klar VPS på den nyeste AMD EPYC og ren NVMe.
Independent since 2008. Llama, Mistral, Qwen, DeepSeek, Gemma، همه زیر IP شما.

4.6· 713 reviews on Trustpilot

Starting at $2.48/mo · 50% rabat · Intet kreditkort kræves

~ ssh root@ollama-lon-001connected
root@ollama-lon-001:~# ollama pull llama3
henter manifest... henter model 5,0 GB ✔
root@ollama-lon-001:~# ollama run llama3 "What's a VPS?"
En VPS, eller Virtual Private Server, er en virtualiseret
computermiljø med sit eget styresystem og dedikerede
ressourcer, hostet i skyen...
root@ollama-lon-001:~# _

Ollama VPS på et øjeblik

Cloudzy hosts Ollama-klar VPS fra 12 regions i Nordamerika, Europa, Mellemøsten og Asien, fra $2.48 per month. Planer fra 512 MB to 64 GB DDR5, all on NVMe storage with 40 Gbps uplinks. Ollama installeres med ét klik; træk Llama 3, Mistral, Qwen, DeepSeek, Gemma og server dem bag en OpenAI-kompatibel API. Servers provision in 60 seconds. Cloudzy har kørt uafhængigt siden 2008 and is rated 4.6 / 5 by 713+ reviewers on Trustpilot.

Starting price
$2.48 / month
Provisioning
60 seconds
Regions
12 worldwide
Uptime SLA
99.95%
Money-back
14 days
Founded
2008

Derfor vælger udviklere Cloudzy

An LLM host favorite.

De fire ting, kunder reelt sammenligner os på - her leverer vi.

Optimeret til inferens

AMD EPYC, NVMe-only storage, DDR5 memory, 40 Gbps uplinks. Model weights load from NVMe in seconds; no slow disk choking your first response.

Prøv uden risiko

14 dages pengene-tilbage-garanti på alle planer. Ingen spørgsmål stillet. Ingen opstartsgebyrer. Afmeld fra dashboardet når som helst.

99.95% uptime SLA

Automatiseret overvågning i 12 regioner. SLA for de seneste 30 dage spores offentligt på status.cloudzy.com, uden skjul bag PR.

24/7 human support

Live chat og ticket-svar typisk under 5 minutter. Ingeniører, ikke manuskriptlæsere. Median løsningstid under 1 time.

Vælg din model

Open-weight modeller.
Én kommando væk.

Llama 3 til det sikre valg, Mistral til generel chat, Qwen til flersproget brug, DeepSeek til kode, Gemma til lille CPU-arbejde. Kombiner dem frit, alle på samme NVMe.

Tilpasset GGUF-upload understøttes på alle planer
Llama 3
8B / 70B / 405B
Mistral
7B / Mixtral 8x7B
Qwen
0.5B – 72B Alibaba
DeepSeek
Coder / Chat / R1
Gemma
2B / 7B Google
Phi
Microsofts små modeller

Use cases

Derfor vælger udviklere
Cloudzy's Ollama VPS.

Privat API til din app

OpenAI-kompatibelt endpoint på din dedikerede IP – klar til brug med det samme. Byg chatfunktioner, opsummeringsværktøjer eller agenter uden at sende brugerforespørgsler til en tredjepart.

Background agents

Agenter der kører i timevis og batch-behandler e-mails, scraper hjemmesider eller auto-tagger tickets passer ikke til forbrugsbaserede APIs. En fast-pris VPS gør. Sæt et cron-job op, kald Ollama, lad det køre, gentag.

Code assistants

Kør DeepSeek-Coder eller Qwen-Coder bag din editors Continue / Tabby-plugin. Hurtig autofuldførelse, ingen pris pr. forslag, ingen kode sendt til tredjeparter.

Hobby-chat og RAG-demoer

Hent en model, sæt Open WebUI eller LibreChat op, del et link med dine venner. Hele stacken på én VPS for prisen af et par kaffer om måneden.

Compliance-venlige LLMs

Følsomme data (juridiske dokumenter, sundhedsoplysninger, interne filer) forbliver på din VPS. Styr adgangen med iptables og journald – din model, din perimeter.

Træn dine egne fine-tuned modeller

Hent basisvægte, finjuster på en GPU maskine, og send GGUF-filen tilbage til en CPU Ollama VPS til inferens. Billig hverdagsdrift, og brug kun pengene når du træner.

60s
Provisioning
40 Gbps
Uplink
NVMe-only
Storage
12
Regions
99.95%
Uptime SLA
14 days
Money-back

Global network

12 regioner. Fire kontinenter.
Vælg din, træk en model.

Placer din inference-server tæt på dine brugere. Median P50-latens under 10 ms i Nordamerika og Europa.

us-utah-1us-dal-1us-lax-1us-nyc-1us-mia-1eu-ams-1eu-lon-1eu-fra-1eu-zrh-1me-dxb-1ap-sgp-1ap-tyo-1

Pricing

Betal kun for det, du bruger. That's it.

Pr. time, måned eller år. Ingen overførselsgebyrer. Ingen binding. Aktuelt 50% off all plans.

1 GB DDR5

Tiny CPU-modeller · 1B–3B

$3.48/mo
$6.95/mo−50%
Deploy now
14 dages pengene-tilbage-garanti
  • 1 vCPU @ EPYC
  • 25 GB NVMe
  • 1 TB · 40 Gbps
  • Dedicated IPv4 + IPv6
  • Et-klik Ollama
2 GB DDR5

7B / 8B on CPU

$7.475/mo
$14.95/mo−50%
Deploy now
14 dages pengene-tilbage-garanti
  • 1 vCPU @ EPYC
  • 60 GB NVMe
  • 3 TB · 40 Gbps
  • Dedicated IPv4 + IPv6
  • Et-klik Ollama

FAQ. Ollama VPS

Common questions, straight answers.

Hvad er en Ollama VPS?

En Ollama VPS er en Cloudzy cloud-server konfigureret til at køre Ollama, den lokale LLM-runtime. Hent open source-modeller som Llama 3, Mistral, Qwen, DeepSeek eller Gemma; server dem bag din egen OpenAI-kompatible API; byg chatapps, agenter og værktøjer uden at sende trafik til en tredjeparts modeludbyder.

Er Ollama forudinstalleret?

Ollama kan installeres med ét klik fra panelet. Vælg en Linux-skabelon, binæren tilføjes til din PATH, og `ollama pull llama3` virker inden for et minut. HTTP API lytter som standard på port 11434; bind den til din dedikerede IP bag en reverse proxy.

Kan jeg køre LLMs på en CPU-only VPS?

Ja, til mindre modeller. Llama 3 8B og Mistral 7B kører på en 16 GB CPU-server, og Qwen 0.5B-3B og Gemma 2B kører fint på 4 GB. Gennemstrømningen afhænger af modellens størrelse og prompten. CPU er langsommere end GPU, men tilstrækkeligt til lavvolumen APIs, sideprojekter og udviklingsarbejde.

Tilbyder I GPU-planer til større modeller?

Ja. Til 70B-klasse-modeller eller høj-gennemstrømnings-inferens, se vores GPU-planer (RTX 4090, RTX 5090, A100). 4090 håndterer Llama 3 70B med kvantisering; A100 80 GB kører store modeller i fuld præcision. Linkes fra prissiden.

Er den OpenAI-kompatible API understøttet?

Ja. Ollama eksponerer et `/v1/chat/completions`-endpoint, der er drop-in-kompatibelt med OpenAI-klienten. Peg din eksisterende app på `http://your-vps:11434/v1` og skift modelnavnet. Samme SDK, ingen omskrivning.

Hvor meget diskplads fylder en model?

Det afhænger af modellen. En 4-bit kvantiseret 7B-model fylder ca. 4 GB. En 8B fylder ca. 5 GB. En 70B ved 4-bit fylder ca. 40 GB. Hent så mange som du har plads til. Planer starter ved 60 GB NVMe og går op til 1,5 TB - bland og match modeller på én server.

Hvor hurtigt er klargøringen?

Når betalingen er bekræftet, er din VPS klar på 60 sekunder. Med Ollama installeret via ét klik er runtimen oppe et minut efter. Den første model-download tager lidt længere (netværksbegrænset), men efterfølgende downloads er varm-cachet på NVMe.

Do I get a dedicated IP?

Ja, alle VPSs leveres med en dedikeret statisk IPv4 samt IPv6. Tilgå Ollama API via den dedikerede IP, sæt en Caddy reverse proxy foran for HTTPS på et rigtigt hostnavn, og du er klar. Floating IPs er tilgængelige.

Er der skjulte gebyrer?

Nej. Udgående trafik er inkluderet i din månedlige datakvote. Snapshots er gratis. IPv4 + IPv6 er inkluderet. Root-adgang er inkluderet. De eneste betalte tilvalg er Floating IPs (2,50 $/måned) og ekstra snapshots ud over den gratis kvote.

Er der en pengene-tilbage-garanti?

Ja, 14 dage fra købet, ingen spørgsmål, fuld refusion. Ansøg via kontrolpanelet eller send en e-mail til [email protected].

Klar, når du er det.
ollama run, på 60 sekunder.

Vælg en region, klik, hent en model. Din private LLM, din dedikerede IP.

Intet kreditkort kræves · 14 dages pengene-tilbage-garanti · Annuller når som helst