50% rabat alle planer, tidsbegrænset. Fra $2.48/mo

GPU VPS-hosting

RTX 6000 Pro. A100. RTX 5090.
Dedikeret, ikke skåret i skiver.

Fuld GPU passthrough. RTX 6000 Pro, A100, RTX 5090, RTX 4090. Forudinstalleret CUDA, cuDNN, PyTorch klar.
NVMe + 40 Gbps netværk. Uafhængig cloud siden 2008.

4.6 · 713 reviews on Trustpilot

Fra $506.35/mo · 35% årligt rabat · Intet kreditkort påkrævet

~ ssh root@gpu-train-001 tilsluttet
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

GPU VPS på et øjeblik

Cloudzy sælger GPU VPS-planer med dedikerede RTX 6000 Pro, Nvidia A100, RTX 5090, og RTX 4090 kort ind 1× til 4× konfigurationer fra kl $506.35 per month. Hver plan leveres forudinstalleret med den seneste CUDA, cuDNN, og Nvidia-drivere, kører på AMD EPYC + DDR5 med Kun NVMe lagring og 40 Gbps uplinks og bestemmelser i 60 sekunder. GPU'er er dedikeret passthrough, ikke vGPU, ikke MIG, ikke delt. Cloudzy har fungeret uafhængigt siden 2008 og er bedømt 4.6 / 5 by 713+ reviewers på Trustpilot.

Startpris
$506.35 / mo
GPU typer
6000 Pro · A100 · 5090 · 4090
Konfig
1× til 4×
CUDA
Forinstalleret
Årlig rabat
35 % rabat
Pengene tilbage
14 dage

Hvorfor ML-teams vælger Cloudzy

GPU beregner ukedelig måde.

De fire grunde til, at teams flytter til Cloudzy fra AWS / GCP / hyperscaler GPU'er.

Dedikeret GPU-passthrough

Det fulde fysiske kort er dit, ingen vGPU udskæring, ingen MIG-partitioner, ingen strid med andre lejere. CUDA-kerner, VRAM, PCIe baner, alle dedikerede.

CUDA-klare billeder

Seneste Nvidia-drivere, CUDA-værktøjssæt og cuDNN forudindbagt i Ubuntu-billedet. PyTorch, TensorFlow, JAX, Hugging Face, pip-installation og du træner.

NVMe + 40 Gbps

Ren NVMe-lagring, så datasætindlæsning er ikke flaskehalsen. 40 Gbps netværk betyder at trække en 100 GB Hugging Face-model færdig på få sekunder, ikke minutter.

Menneskelig support døgnet rundt

Rigtige ingeniører på chat. Vi har hjulpet tilstrækkeligt mange teams med at opsætte multi-GPU-træning, fejlsøge CUDA OOM'er og justere Llama-konklusionen om, at svarene kommer hurtigt tilbage.

GPU lineup

Fire familier.
Ni måder at skalere på.

RTX 6000 Pro til pro-grad inferens og gengivelse med 48 GB ECC VRAM. A100 til træning og store VRAM-arbejdsbelastninger. RTX 5090 for den nyeste slutning. RTX 4090 for omkostningseffektiv inferens op til 70B (4-bit). Multi-GPU-planer tilgængelige, vælg hvad dit VRAM-budget har brug for.

Fuld GPU passthrough, ikke skåret i skiver, ikke delt
RTX 6000 Pro
48 GB GDDR6 ECC · Pro-grade
Nvidia A100
80 GB HBM2e · ML training
RTX 5090
32 GB GDDR7 · Blackwell
RTX 4090
24 GB GDDR6X · cost-effective
1× til 4× GPU
Multi-GPU-planer tilgængelige
CUDA forudinstalleret
PyTorch · TF · JAX klar
Ren NVMe
Hurtig datasæt I/O
40 Gbps uplink
Træk 100 GB-modeller i 30'erne

Brugsscenarier

Arbejdsbelastningen vores
kunderne rent faktisk træner.

LLM slutning

Server Llama 3, Mistral, DeepSeek eller Qwen med vLLM eller Text Generation Inference. RTX 4090 håndterer 70B ved 4-bit, RTX 5090 håndterer 70B ved 8-bit, A100 håndterer ukvantiseret.

Stabil Diffusion · billede gen

Kør SDXL, Flux eller finjusterede stabile diffusionskontrolpunkter med ComfyUI eller Automatic1111. RTX 4090 rammer 30+ billeder/min på standard 1024×1024 SDXL.

ML træning + finjustering

LoRA, QLoRA, fuld finjustering. A100 er sweet spot for 7B-13B unquantized finjustering; 4× A100 håndterer op til 70B med korrekt skæring (FSDP / DeepSpeed).

3D-gengivelse · Blender

Cycles + OptiX på RTX-kort er den hurtigste vej for animationsstudier. 24 GB VRAM på RTX 4090 dækker langt de fleste single-frame produktionsscener.

Tale + vision pipelines

Whisper Large, Faster-Whisper, YOLO, Segment Anything. Selv RTX 4090-planen kører i realtid på disse modeller med komfortabel frihøjde.

Langvarige batchjobs

Indlejring af generering, genfindingspipelines, datasætforbehandling. Betal hver time, kør jobbet, tag et øjebliksbillede af outputtet, ødelægge boksen, billigere end at leje på AWS/GCP for den samme arbejdsbyrde.

80 GB
A100 VRAM
40 Gbps
Uplink
CUDA-klar
Billede
4 ×
Max GPU'er
35%
Årlig fri
14 dage
Pengene tilbage

Prissætning

Udvalgte GPU-planer. Hver time eller årligt.

Årlig fakturering er pt 35 % rabat på hver GPU-plan.

FAQ. GPU VPS

Typiske spørgsmål, klare svar.

Hvilke GPU'er tilbyder Cloudzy?

Fire familier: RTX 6000 Pro (1×, 48 GB GDDR6 ECC VRAM, pro-grade til inferens og gengivelse), Nvidia A100 (1× / 2× / 4×, til ML-træning, fp16/bf16-arbejdsbelastninger og 80 GB HB 6, × nye kort), XZNT2e, × nye Blackwell-arkitektur, ideel til inferensarbejdsbelastninger og gengivelse) og RTX 4090 (1× / 2× / 4×, omkostningseffektiv til stabil diffusion, LLM-inferens og 3D-gengivelse).

Er GPU'erne dedikerede eller delte?

Dedikeret. Hver plan er en passthrough af de fulde fysiske GPU(s), ikke et udsnit, ikke vGPU, ikke MIG. CUDA-kernerne, VRAM'en, PCIe-båndbredden, alle dine. Multi-GPU-planer bruger NVLink, hvor den fysiske hardware understøtter det (A100 multi-GPU-planer).

Er CUDA forudinstalleret?

Ja. Hver GPU VPS leveres med det seneste stabile CUDA-værktøjssæt, cuDNN og Nvidia-drivere, der er forudindbygget i Ubuntu-billedet. PyTorch, TensorFlow, JAX og Hugging Face-stakken løber ud af æsken. Du kan re-image til en ren Ubuntu uden CUDA, hvis du vil installere en specifik version.

Hvor meget VRAM får jeg?

Per GPU: RTX 6000 Pro = 48 GB GDDR6 ECC, A100 = 80 GB HBM2e, RTX 5090 = 32 GB GDDR7, RTX 4090 = 24 GB GDDR6X. Multi-GPU-planer samler det, en 4× A100-plan har 320 GB samlet VRAM. Planlisten ovenfor viser system-RAM separat.

Kan jeg køre Stable Diffusion / Llama / Whisper på en GPU VPS?

Ja. 1× RTX 4090-planen er et godt udgangspunkt: nok VRAM til SDXL-inferens, Llama 3 70B (4-bit kvantiseret) eller Whisper Large. Bump til RTX 5090 eller A100, hvis du har brug for at køre ukvantificerede 70B-modeller eller træne LoRA'er.

Hvordan er priserne sammenlignet med AWS / Google Cloud / Lambda Labs?

Generelt billigere for steady-state-arbejdsbelastninger, vi prisdiskriminerer ikke ved "on-demand" i forhold til "spot", og vi har ikke udgangsgebyrer. Vi vil ikke angive konkurrenttal (de ændres månedligt). 14-dages pengene-tilbage-garanti giver dig A/B mod din nuværende udbyder med dine egne benchmarks.

Er der en årlig rabat?

Ja, 35 % rabat på årlig fakturering på hver GPU plan (lavere end 50 % på almindelig CPU, fordi GPU hardware koster mere at amortisere). Ingen automatisk fornyelse; du får en faktura før hver årlig cyklus, så du kan nedgradere, opgradere eller annullere uden overraskelsesgebyrer.

Hvad med netværk? Er det virkelig 40 Gbps?

Ja. Samme 40 Gbps uplinks som vores flagskib Cloud VPS, uden udgangsgebyrer ved månedlig overførsel op til plangodtgørelsen. Nyttigt til at flytte store datasæt ind og ud af GPU-knuden, idet det tager omkring 30 sekunder at trække en 100 GB Hugging Face-model med linjehastighed.

Kan jeg køre multi-node træning (flere GPU VPS sammen)?

Ja inden for en region. VPS i samme datacenter deler det lokale netværk med en forsinkelse på under millisekunder. Vi tilbyder i øjeblikket ikke InfiniBand-interconnect, multi-node-træning over standard Ethernet er fint til finjustering og distribuerede opgaver i lille skala, men er ikke konkurrencedygtig med bare-metal HPC til store præ-træning.

Penge-tilbage-garanti på GPU-planer?

14 dage, ingen spørgsmål stillet. Refusion inden for én faktureringscyklus. Masser af tid til at benchmarke CUDA-gennemstrømning, køre et rigtigt træningstrin og beslutte, om Cloudzy passer til din arbejdsbyrde.

Stop med at betale hyperskalerpriser.
Træn på dedikerede GPU'er.

Vælg et kort, vælg et område, klik. CUDA er allerede installeret.

Intet kreditkort krævet · 14 dages pengene-tilbage-garanti · Opsig når du vil