50% korting alle plannen, beperkte tijd. Vanaf $2.48/mo

GPU VPS-hosting

RTX6000Pro. A100. RTX5090.
Toegewijd, niet gesneden.

Volledige GPU-doorvoer. RTX 6000 Pro, A100, RTX 5090, RTX 4090. Vooraf geïnstalleerde CUDA, cuDNN, PyTorch gereed.
NVMe + 40 Gbps-netwerken. Onafhankelijke cloud sinds 2008.

4.6 · 713 reviews on Trustpilot

Vanaf $506.35/mo · 35% korting op jaarbasis · Geen creditcard vereist

~ ssh root@gpu-train-001 aangesloten
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

GPU VPS in één oogopslag

Cloudzy verkoopt GPU VPS-abonnementen met dedicated RTX 6000 Pro, Nvidia A100, RTX 5090, En RTX4090 kaarten binnen 1× tot 4× configuraties, beginnend bij $506.35 per month. Elk plan wordt vooraf geïnstalleerd met de nieuwste versie CUDA, cuDNN, en Nvidia-stuurprogramma's, draait op AMD EPYC + DDR5 met Alleen NVMe opslag en 40 Gbps uplinks en voorzieningen in 60 seconden. GPU's zijn speciale passthrough, niet vGPU, niet MIG, niet gedeeld. Cloudzy opereert sindsdien onafhankelijk 2008 en wordt beoordeeld met 4.6 / 5 by 713+ reviewers op Trustpilot.

Vanafprijs
$506.35 / mo
GPU-typen
6000 Pro · A100 · 5090 · 4090
Configuraties
1× tot 4×
CUDA
Vooraf geïnstalleerd
Jaarlijkse korting
35% korting
Geld terug
14 dagen

Waarom ML-teams voor Cloudzy kiezen

GPU berekent de saaie manier.

De vier redenen waarom teams van AWS/GCP/hyperscaler GPU’s naar Cloudzy overstappen.

Speciale GPU-passthrough

De volledige fysieke kaart is van jou, geen vGPU-slicing, geen MIG-partities, geen ruzie met andere tenants. CUDA-cores, VRAM, PCIe-lanes, allemaal toegewijd.

CUDA-ready afbeeldingen

Nieuwste Nvidia-stuurprogramma's, CUDA-toolkit en cuDNN voorgebakken in de Ubuntu-image. PyTorch, TensorFlow, JAX, Hugging Face, pip installeren en je bent aan het trainen.

NVMe + 40 Gbps

Pure NVMe-opslag, zodat het laden van datasets niet het knelpunt is. 40 Gbps netwerken betekent dat het ophalen van een Hugging Face-model van 100 GB binnen enkele seconden is voltooid, niet in minuten.

24/7 menselijke support

Echte ingenieurs op chat. We hebben genoeg teams geholpen bij het opzetten van multi-GPU-training, het debuggen van CUDA OOM's en het afstemmen van de Llama-gevolgtrekking zodat de antwoorden snel terugkomen.

GPU-opstelling

Vier gezinnen.
Negen manieren om te schalen.

RTX 6000 Pro voor professionele inferentie en weergave met 48 GB ECC VRAM. A100 for training and large-VRAM workloads. RTX 5090 voor de nieuwste gevolgtrekking. RTX 4090 voor kosteneffectieve inferentie tot 70B (4-bit). Multi-GPU-abonnementen beschikbaar, kies wat uw VRAM-budget nodig heeft.

Volledige GPU-passthrough, niet gesegmenteerd, niet gedeeld
RTX6000Pro
48 GB GDDR6 ECC · Pro-grade
Nvidia A100
80 GB HBM2e · ML training
RTX5090
32 GB GDDR7 · Blackwell
RTX4090
24 GB GDDR6X · cost-effective
1× tot 4× GPU
Multi-GPU-abonnementen beschikbaar
CUDA vooraf geïnstalleerd
PyTorch · TF · JAX gereed
Puur NVMe
Snelle dataset-I/O
40 Gbps uplink
Trek 100 GB-modellen in jaren 30 uit

Use cases

De werkdruk is voor ons
klanten trainen daadwerkelijk.

LLM-conclusie

Serveer Llama 3, Mistral, DeepSeek of Qwen met vLLM of Text Generation Inference. RTX 4090 verwerkt 70B op 4-bit, RTX 5090 verwerkt 70B op 8-bit, A100 verwerkt niet-gekwantiseerd.

Stabiele verspreiding · beeldgen

Voer SDXL-, Flux- of verfijnde stabiele diffusiecontrolepunten uit met ComfyUI of Automatic1111. RTX 4090 haalt 30+ afbeeldingen/min op standaard 1024×1024 SDXL.

ML-training + finetuning

LoRA, QLoRA, volledige afstemming. A100 is de goede plek voor niet-gekwantiseerde fijnafstemming van 7B-13B; 4× A100 verwerkt tot 70B met de juiste sharding (FSDP / DeepSpeed).

3D-rendering · Blender

Cycles + OptiX op RTX-kaarten is het snelste pad voor animatiestudio's. Het 24 GB VRAM op de RTX 4090 dekt de overgrote meerderheid van single-frame productiescènes.

Spraak- en visiepijplijnen

Fluister groot, sneller gefluister, YOLO, segmenteer alles. Zelfs het RTX 4090-plan voert realtime gevolgtrekkingen uit op deze modellen met comfortabele hoofdruimte.

Langlopende batchtaken

Generatie insluiten, pijplijnen ophalen, voorverwerking van datasets. Betaal per uur, voer de taak uit, maak een momentopname van de uitvoer, vernietig de doos, goedkoper dan huren op AWS/GCP voor dezelfde werklast.

80 GB
A100VRAM
40 Gbps
Uplink
CUDA-klaar
Afbeelding
4 ×
Maximale GPU's
35%
Jaarlijkse korting
14 dagen
Geld terug

Prijzen

Uitgelichte GPU-abonnementen. Per uur of jaarlijks.

Jaarlijkse facturering is momenteel 35% korting op elk GPU-abonnement.

Veelgestelde vragen. GPU VPS

Veelgestelde vragen, directe antwoorden.

Welke GPU's biedt Cloudzy aan?

Vier families: RTX 6000 Pro (1×, 48 GB GDDR6 ECC VRAM, pro-grade voor inferentie en weergave), Nvidia A100 (1× / 2× / 4×, voor ML-training, fp16/bf16-workloads en 80 GB HBM2e per kaart), RTX 5090 (1× / 2×, nieuwere Blackwell-architectuur, ideaal voor werklasten en weergave inferentie) en RTX 4090 (1× / 2× / 4×, kosteneffectief voor stabiele diffusie, LLM-inferentie en 3D-rendering).

Zijn de GPU's dedicated of gedeeld?

Toegewijd. Elk plan is een passthrough van de volledige fysieke GPU(s), geen slice, geen vGPU, geen MIG. De CUDA-kernen, het VRAM, de PCIe-bandbreedte, allemaal van jou. Multi-GPU-abonnementen gebruiken NVLink waar de fysieke hardware dit ondersteunt (A100 multi-GPU-abonnementen).

Is CUDA vooraf geïnstalleerd?

Ja. Elke GPU VPS wordt geleverd met de nieuwste stabiele CUDA-toolkit, cuDNN en Nvidia-stuurprogramma's die voorgebakken zijn in de Ubuntu-image. PyTorch, TensorFlow, JAX en de Hugging Face-stack komen uit de doos. Je kunt een nieuwe image maken naar een schone Ubuntu zonder CUDA als u een specifieke versie wilt installeren.

Hoeveel VRAM krijg ik?

Volgens GPU: RTX 6000 Pro = 48 GB GDDR6 ECC, A100 = 80 GB HBM2e, RTX 5090 = 32 GB GDDR7, RTX 4090 = 24 GB GDDR6X. Multi-GPU-abonnementen houden in dat een 4× A100-abonnement 320 GB totaal VRAM heeft. De bovenstaande planlijst toont het systeem-RAM afzonderlijk.

Kan ik Stable Diffusion / Llama / Whisper uitvoeren op een GPU VPS?

Ja. Het 1× RTX 4090-plan is een goed startpunt: voldoende VRAM voor SDXL-inferentie, Llama 3 70B (4-bit gekwantiseerd) of Whisper Large. Ga naar RTX 5090 of A100 als je niet-gekwantiseerde 70B-modellen wilt gebruiken of LoRA's wilt trainen.

Hoe verhoudt de prijs zich tot AWS / Google Cloud / Lambda Labs?

Over het algemeen goedkoper voor steady-state workloads, we maken geen prijsdiscriminatie tussen 'on-demand' versus 'spot' en we hebben geen uitgaande kosten. We vermelden geen cijfers van concurrenten (deze veranderen maandelijks). Dankzij de 14 dagen geld-terug-garantie kunt u A/B vergelijken met uw huidige provider met uw eigen benchmarks.

Is er een jaarlijkse korting?

Ja, 35% korting op de jaarlijkse facturering voor elk GPU-abonnement (lager dan de 50% voor de reguliere CPU omdat GPU-hardware meer kost om af te schrijven). Geen automatische verlenging; u ontvangt vóór elke jaarlijkse cyclus een factuur, zodat u zonder verrassingskosten kunt downgraden, upgraden of annuleren.

Hoe zit het met netwerken? Is het echt 40 Gbps?

Ja. Dezelfde 40 Gbps uplinks als ons vlaggenschip Cloud VPS, zonder uitgaande kosten bij maandelijkse overdracht tot aan het abonnementsbedrag. Handig voor het verplaatsen van grote datasets in en uit het GPU-knooppunt; het ophalen van een Hugging Face-model van 100 GB duurt bij lijnsnelheid ongeveer 30 seconden.

Kan ik training met meerdere knooppunten uitvoeren (meerdere GPU VPS samen)?

Ja binnen een regio. VPS in hetzelfde datacenter delen het lokale netwerk met een latentie van minder dan een milliseconde. We bieden momenteel geen InfiniBand-interconnectie aan. Multi-node-training via standaard Ethernet is prima voor fijnafstelling en kleinschalige gedistribueerde taken, maar is niet concurrerend met bare-metal HPC voor grote pre-training.

Geld-terug-garantie op GPU-abonnementen?

14 dagen, geen vragen gesteld. Terugbetaling binnen één betalingscyclus. Genoeg tijd om de CUDA-doorvoer te benchmarken, een echte trainingsstap uit te voeren en te beslissen of Cloudzy geschikt is voor uw werklast.

Stop met het betalen van hyperscalerprijzen.
Train op speciale GPU's.

Kies een kaart, kies een regio, klik. CUDA is al geïnstalleerd.

Geen creditcard nodig · 14 dagen niet-goed-geld-terug · altijd opzegbaar