Sconto del 50%. tutti i piani, tempo limitato. A partire da $2.48/mo

Hosting VPS GPU

RTX6000 Pro. A100. RTX5090.
Dedicato, non affettato.

Passaggio GPU completo. RTX 6000 Pro, A100, RTX 5090, RTX 4090. CUDA preinstallato, cuDNN, PyTorch pronto.
Rete NVMe + 40 Gbps. Cloud indipendente dal 2008.

4.6 · 713 reviews on Trustpilot

A partire da $506.35/mo · Sconto annuale del 35% · Non è richiesta la carta di credito

~ ssh root@gpu-train-001 collegato
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

VPS GPU in breve

Cloudzy vende piani GPU VPS con dedicato RTX 6000 Pro, Nvidia A100, RTX 5090, E RTX4090 carte dentro Da 1× a 4× configurazioni, a partire da $506.35 per month. Ogni piano viene fornito preinstallato con la versione più recente CUDA, cuDNN, e driver Nvidia, funziona su AMD EPYC + DDR5 con Solo NVMe storage e 40 Gbps uplink e disposizioni in 60 secondi. Gli GPU sono passthrough dedicati, non vGPU, non MIG, non condiviso. Da allora Cloudzy opera in modo indipendente 2008 ed è valutata 4.6 / 5 by 713+ reviewers su Trustpilot.

Prezzo iniziale
$506.35 / mo
Tipi di GPU
6000 Pro · A100 · 5090 · 4090
Configurazioni
Da 1× a 4×
CUDA
Preinstallato
Sconto annuale
Sconto del 35%.
Rimborso
14 giorni

Perché i team ML scelgono Cloudzy

La GPU calcola il modo poco noioso.

I quattro motivi per cui i team passano a Cloudzy dalle GPU AWS/GCP/hyperscaler.

Passthrough GPU dedicato

La scheda fisica completa è tua, nessuno slicing vGPU, nessuna partizione MIG, nessuna contesa con altri tenant. Core CUDA, VRAM, corsie PCIe, tutti dedicati.

Immagini pronte per CUDA

I più recenti driver Nvidia, toolkit CUDA e cuDNN preintegrati nell'immagine Ubuntu. PyTorch, TensorFlow, JAX, Hugging Face, pip install e il tuo allenamento.

NVMe + 40 Gbps

Archiviazione NVMe pura, quindi il caricamento del set di dati non è il collo di bottiglia. Una rete a 40 Gbps significa che l'estrazione di un modello Hugging Face da 100 GB termina in pochi secondi, non in minuti.

Supporto umano 24 ore su 24

Veri ingegneri in chat. Abbiamo aiutato un numero sufficiente di team a configurare la formazione multi-GPU, eseguire il debug di OOM CUDA e ottimizzare l'inferenza di Llama in modo che le risposte arrivino rapidamente.

Gamma GPU

Quattro famiglie.
Nove modi per crescere.

RTX 6000 Pro per inferenza e rendering di livello professionale con VRAM ECC da 48 GB. A100 per training e carichi di lavoro con VRAM di grandi dimensioni. RTX 5090 per l'inferenza più recente. RTX 4090 per inferenza conveniente fino a 70B (4 bit). Piani Multi-GPU disponibili: scegli ciò di cui ha bisogno il tuo budget VRAM.

Passthrough GPU completo, non suddiviso, non condiviso
RTX6000 Pro
48 GB GDDR6 ECC · Pro-grade
Nvidia A100
80 GB HBM2e · ML training
RTX5090
32 GB GDDR7 · Blackwell
RTX4090
24 GB GDDR6X · cost-effective
Da 1× a 4× GPU
Disponibili piani multi-GPU
CUDA preinstallato
PyTorch · TF · JAX pronto
NVMe puro
I/O veloce del set di dati
40 Gbps uplink
Inserisci modelli da 100 GB negli anni '30

Casi d'uso

I carichi di lavoro ns
i clienti effettivamente si allenano.

Inferenza LLM

Servi Llama 3, Mistral, DeepSeek o Qwen con vLLM o inferenza di generazione di testo. RTX 4090 gestisce 70B a 4 bit, RTX 5090 gestisce 70B a 8 bit, A100 gestisce non quantizzati.

Diffusione stabile · immagine gen

Esegui checkpoint SDXL, Flux o Stable Diffusion ottimizzati con ComfyUI o Automatic1111. RTX 4090 raggiunge oltre 30 immagini/min su SDXL standard 1024×1024.

Formazione ML + messa a punto

LoRA, QLoRA, messa a punto completa. A100 è il punto ideale per la messa a punto non quantizzata 7B-13B; 4× A100 gestisce fino a 70B con sharding adeguato (FSDP/DeepSpeed).

Rendering 3D · Frullatore

Cycles + OptiX su schede RTX è il percorso più veloce per gli studi di animazione. La VRAM da 24 GB dell'RTX 4090 copre la stragrande maggioranza delle scene di produzione a frame singolo.

Condutture di discorso + visione

Whisper Large, Faster-Whisper, YOLO, segmenta qualsiasi cosa. Anche il piano RTX 4090 esegue inferenza in tempo reale su questi modelli con un margine confortevole.

Lavori batch di lunga durata

Incorporamento di generazione, pipeline di recupero, preelaborazione di set di dati. Paga ogni ora, esegui il lavoro, crea uno snapshot dell'output, distruggi la scatola, più economico rispetto al noleggio su AWS/GCP per lo stesso carico di lavoro.

80 GB
A100 VRAM
40 Gbps
Collegamento in salita
Pronto per CUDA
Immagine
4 ×
GPU massime
35%
Sconto annuale
14 giorni
Rimborso

Prezzi

Piani GPU in primo piano. Oraria o annuale.

La fatturazione annuale è attualmente Sconto del 35%. su ogni piano GPU.

Domande frequenti. GPU VPS

Domande frequenti, risposte chiare.

Quali GPU offre Cloudzy?

Quattro famiglie: RTX 6000 Pro (1×, 48 GB GDDR6 ECC VRAM, di livello professionale per inferenza e rendering), Nvidia A100 (1× / 2× / 4×, per formazione ML, carichi di lavoro fp16/bf16 e 80 GB HBM2e per scheda), RTX 5090 (1× / 2×, architettura Blackwell più recente, ideale per carichi di lavoro di inferenza e rendering) e RTX 4090 (1× / 2× / 4×, conveniente per diffusione stabile, inferenza LLM e rendering 3D).

Le GPU sono dedicate o condivise?

Dedicato. Ogni piano è un passthrough dell'intero GPU fisico, non una sezione, non vGPU, non MIG. I core CUDA, la VRAM, la larghezza di banda PCIe, tutto tuo. I piani multi-GPU utilizzano NVLink laddove l'hardware fisico lo supporta (piani multi-A100 multi-GPU).

CUDA è preinstallato?

SÌ. Ogni GPU VPS viene fornita con l'ultimo toolkit CUDA stabile, cuDNN e driver Nvidia preintegrati nell'immagine Ubuntu. PyTorch, TensorFlow, JAX e lo stack Hugging Face sono pronti. Puoi ricreare l'immagine su Ubuntu pulito senza CUDA se desideri installare una versione specifica.

Quanta VRAM ricevo?

Secondo GPU: RTX 6000 Pro = 48 GB GDDR6 ECC, A100 = 80 GB HBM2e, RTX 5090 = 32 GB GDDR7, RTX 4090 = 24 GB GDDR6X. I piani Multi-GPU lo sommano, un piano 4× A100 ha 320 GB di VRAM totale. L'elenco dei piani sopra mostra la RAM di sistema separatamente.

Posso eseguire Stable Diffusion / Llama / Whisper su un VPS GPU?

SÌ. Il piano 1× RTX 4090 è un buon punto di partenza: VRAM sufficiente per l'inferenza SDXL, Llama 3 70B (quantizzato a 4 bit) o ​​Whisper Large. Passa a RTX 5090 o A100 se devi eseguire modelli 70B non quantizzati o addestrare LoRA.

Come si confronta il prezzo con AWS/Google Cloud/Lambda Labs?

Generalmente più economico per carichi di lavoro stazionari, non discriminiamo i prezzi tra "on demand" e "spot" e non applichiamo tariffe in uscita. Non citeremo i numeri dei concorrenti (quelli cambiano mensilmente). La garanzia di rimborso di 14 giorni ti consente di confrontare A/B con il tuo attuale fornitore con i tuoi parametri di riferimento.

C'è uno sconto annuale?

Sì, sconto del 35% sulla fatturazione annuale su ogni piano GPU (inferiore al 50% sul normale CPU perché l'hardware GPU costa di più da ammortizzare). Nessun rinnovo automatico; riceverai una fattura prima di ogni ciclo annuale in modo da poter eseguire il downgrade, l'upgrade o l'annullamento senza costi a sorpresa.

E il networking? Sono davvero 40 Gbps?

SÌ. Stessi uplink da 40 Gbps del nostro Cloud VPS di punta, senza commissioni in uscita sul trasferimento mensile fino al limite del piano. Utile per spostare set di dati di grandi dimensioni dentro e fuori il nodo GPU, l'estrazione di un modello Hugging Face da 100 GB richiede circa 30 secondi alla velocità di linea.

Posso eseguire l'addestramento multi-nodo (più GPU VPS insieme)?

Sì, all'interno di una regione. I VPS nello stesso datacenter condividono la rete locale con una latenza inferiore al millisecondo. Al momento non offriamo l'interconnessione InfiniBand, la formazione multi-nodo su Ethernet standard va bene per la messa a punto e lavori distribuiti su piccola scala, ma non è competitiva con l'HPC bare metal per la pre-formazione di grandi dimensioni.

Garanzia di rimborso sui piani GPU?

14 giorni, senza fare domande. Rimborso entro un ciclo di fatturazione. Tutto il tempo necessario per valutare il throughput CUDA, eseguire una vera fase di formazione e decidere se Cloudzy è la soluzione giusta per il tuo carico di lavoro.

Smetti di pagare prezzi hyperscaler.
Allenati su GPU dedicate.

Scegli una carta, scegli una regione, fai clic. CUDA è già installato.

Nessuna carta di credito richiesta · Rimborso entro 14 giorni · Annulla quando vuoi