50% off tutti i piani, offerta a tempo limitato. A partire da $2.48/mo

Server GPU per Deep Learning

Train models on
dedicated GPUs.

NVIDIA A100, RTX 5090 e RTX 4090, PCI passthrough completo, non condiviso.
Storage NVMe per il caricamento rapido dei dati. Cloud indipendente dal 2008.
Oltre 122.000 utenti si affidano a Cloudzy. Rimborso entro 14 giorni, senza domande.

4.6 · 713 reviews on Trustpilot

Starting at $14.47/mo · 50% di sconto · Nessuna carta di credito richiesta

~ ssh root@vps-001 connected
$ ssh root@gpu-srv-001
Welcome to Ubuntu 24.04 LTS (CUDA 12.4)
root@gpu-srv-001:~$ nvidia-smi --query-gpu=name,memory.total --format=csv
name, memory.total [MiB]
NVIDIA A100-SXM4-80GB, 81920 MiB
root@gpu-srv-001:~$ python3 -c "import torch; print(torch.cuda.is_available())"
True
root@gpu-srv-001:~$ torchrun --nproc_per_node=1 train.py --epochs 50
Epoch 1/50 | Loss: 0.4821 | LR: 1e-4

Server GPU per Deep Learning in sintesi

Server Cloudzy Deep Learning GPU usa NVIDIA A100, RTX 5090 e RTX 4090 con PCI passthrough completo. AMD EPYC CPUs, NVMe storage, DDR5 memory, and 40 Gbps uplinks across 12 regions. I piani CPU partono da $2.48/mo; i piani GPU sono disponibili nella pagina dei prezzi. Cloudzy has served 122,000+ users since 2008, rated 4.6/5 on Trustpilot. 14-day soddisfatti o rimborsati su tutti i piani.

Starting price
$2.48 / month
Provisioning
60 seconds
Regions
12 worldwide
Uptime SLA
99.95%
Money-back
14 days
Founded
2008

Perché gli sviluppatori scelgono Cloudzy

A tech-savvy favorite.

I quattro aspetti su cui i clienti ci confrontano davvero. Eccoli, fatti bene.

Infrastruttura ad alte prestazioni

AMD EPYC di ultima generazione, storage esclusivamente NVMe, memoria DDR5, uplink da 40 Gbps. Prestazioni single-thread ai vertici per ogni livello di piano.

Prova senza rischi

Garanzia soddisfatti o rimborsati di 14 giorni su ogni piano. Nessuna domanda, nessun costo di attivazione. Disdici quando vuoi dal pannello di controllo.

99.95% uptime SLA

Monitoraggio automatico in 12 regioni. Il nostro SLA degli ultimi 30 giorni è tracciato pubblicamente su status.cloudzy.com, senza nulla da nascondere.

24/7 human support

Chat in tempo reale e risposte ai ticket in meno di 5 minuti. Tecnici veri, non operatori da copione. Tempo medio di risoluzione sotto l'ora.

Use cases

Perché gli sviluppatori scelgono
Server Cloudzy Deep Learning GPU.

Model training

Addestra CNN, transformer e modelli di diffusione su NVIDIA GPU dedicati. Accesso completo a CUDA, NVMe per il caricamento rapido dei dati, NCCL per il training multi-GPU.

Fine-tuning di LLM

Esegui il fine-tuning di Llama, Mistral o Gemma su A100 o RTX 5090. QLoRA su 24 GB di VRAM, fine-tuning completo su 80 GB. NVMe gestisce la scrittura dei checkpoint senza bloccare il training.

Inference serving

Servi i modelli tramite vLLM, TGI o Triton su GPU dedicati. Il PCI passthrough garantisce VRAM completa e clock alla massima frequenza: stesse prestazioni del bare metal.

Computer vision

Object detection, segmentazione, generazione di immagini. OpenCV, YOLO e Stable Diffusion accelerati da GPU. NVMe mantiene le pipeline dei dati di training sempre alimentate, senza colli di bottiglia.

Research & prototyping

Notebook Jupyter, tracking degli esperimenti, hyperparameter sweep. Avvia server GPU, esegui gli esperimenti, spegnili quando hai finito. I 14 giorni soddisfatti o rimborsati abbassano il rischio su nuovi progetti.

Data preprocessing

RAPIDS, cuDF, cuML. Elaborazione dati accelerata da GPU per dataset di grandi dimensioni. Pulisci, trasforma e featurizza i dati prima del training. Le letture NVMe mantengono alta l'utilizzazione della GPU.

60s
Provisioning
40 Gbps
Uplink
NVMe-only
Storage
12
Regions
99.95%
Uptime SLA
14 days
Money-back

Global network

12 regioni. Quattro continenti.
A un clic di distanza.

Posiziona il tuo Server Deep Learning GPU il più vicino possibile ai tuoi utenti. Latenza mediana P50 sotto i 10 ms in Nord America e in Europa.

us-utah-1us-dal-1us-lax-1us-nyc-1us-mia-1eu-ams-1eu-lon-1eu-fra-1eu-brn-1me-dxb-1ap-sgp-1ap-syd-1

Pricing

Paghi solo quello che usi. That's it.

Ogni ora, mese o anno. Senza costi di trasferimento. Senza vincoli. Attualmente 50% off all plans.

8 GB DDR5

Pipeline dei dati di training · preprocessing

$26.475 /mo
$52.95/mo −50%
Deploy now
Rimborso entro 14 giorni
  • 4 vCPU @ EPYC
  • 240 GB NVMe
  • 7 TB · 40 Gbps
  • Dedicated IPv4 + IPv6
  • Root SSH · KVM
16 GB DDR5

Coordinamento multi-GPU · serving dei modelli

$49.98 /mo
$99.95/mo −50%
Deploy now
Rimborso entro 14 giorni
  • 8 vCPU @ EPYC
  • 350 GB NVMe
  • 10 TB · 40 Gbps
  • Dedicated IPv4 + IPv6
  • Root SSH · KVM
32 GB DDR5

Training su larga scala · calcolo distribuito

$109.975 /mo
$219.95/mo −50%
Deploy now
Rimborso entro 14 giorni
  • 12 vCPU @ EPYC
  • 750 GB NVMe
  • 12 TB · 40 Gbps
  • Dedicated IPv4 + IPv6
  • Root SSH · KVM

FAQ — Server Deep Learning GPU

Common questions, straight answers.

Quali GPU sono disponibili?

NVIDIA A100 (1x, 2x, 4x), RTX 5090 (1x, 2x) e RTX 4090 (1x, 2x, 4x). Tutte usano PCI passthrough: la GPU è dedicata alla tua VM, non condivisa. VRAM completa, clock alla massima frequenza, accesso completo a CUDA. Consulta la pagina dei prezzi per i dettagli sui piani GPU e la disponibilità.

Le GPU sono condivise o dedicate?

Dedicate. Il PCI passthrough assegna alla tua VM accesso esclusivo alla GPU fisica. CUDA, NVENC e NCCL si comportano esattamente come su bare metal. Nessuna condivisione del tempo, nessun partizionamento MIG, nessun overhead di virtualizzazione sulla GPU stessa.

Quale versione di CUDA è disponibile?

I piani GPU vengono forniti con immagini CUDA preconfigurate, attualmente CUDA 12.x su Ubuntu LTS. Puoi installare qualsiasi versione di CUDA di cui hai bisogno, dato che hai accesso root completo. PyTorch, TensorFlow, JAX e altri framework si installano tramite pip o conda come di consueto.

Quanta VRAM mi serve per il deep learning?

Dipende dal modello. Il fine-tuning di un LLM da 7B con QLoRA entra in 24 GB. Il fine-tuning completo di un modello da 7B richiede 40+ GB. L'addestramento da zero su modelli grandi o l'inferenza fp16 su modelli da 70B richiede 80 GB (A100). Scegli il piano GPU in base al footprint di memoria del tuo modello.

Posso fare training multi-GPU?

Sì. I piani con 2x o 4x GPU supportano NCCL per il training distribuito. PyTorch DDP, DeepSpeed, FSDP funzionano tutti come previsto. Lo storage NVMe gestisce i salvataggi dei checkpoint senza bloccare il loop di training.

C'è una garanzia soddisfatti o rimborsati sui piani GPU?

Sì, 14 giorni, rimborso completo, senza domande. Esegui il tuo job di training reale, valuta la tua pipeline di inferenza. Se il server GPU non soddisfa le tue esigenze, ricevi indietro i tuoi soldi.

Quanto è veloce il provisioning?

60 secondi dalla conferma del pagamento. I piani GPU si avviano con un'immagine CUDA preconfigurata, nvidia-smi risponde immediatamente. Installa il tuo framework e inizia a fare training in minuti, non ore.

Posso usarli per l'inferenza in produzione?

Sì. GPU dedicata, SLA di uptime al 99,95% SLA, IPv4 dedicato. Usa vLLM, Triton, o il tuo server di inferenza personalizzato dietro un load balancer. La rete da 40 Gbps gestisce traffico di inferenza ad alto throughput.

Ottengo anche CPU e storage?

Sì. I piani GPU includono AMD EPYC CPU (da 12 a 64 vCPU a seconda del piano), DDR5 RAM (da 48 a 768 GB) e storage NVMe (da 500 GB a 6 TB). Il CPU si occupa del preprocessing dei dati mentre la GPU esegue il training. Lo storage NVMe mantiene il caricamento dei dati veloce.

Come si confrontano i prezzi con i provider cloud GPU?

I piani GPU di Cloudzy usano hardware dedicato senza overhead di time-sharing. I prezzi sono indicati nella pagina dei prezzi: tariffe mensili e annuali trasparenti, senza costi nascosti per ora di calcolo. La garanzia di 14 giorni ti permette di testare prima di impegnarti.

GPU dedicate, disponibili ora.
Deploy in 60 seconds.

Nessuna carta di credito richiesta · Garanzia soddisfatti o rimborsati di 14 giorni · Disdici quando vuoi