50% de réduction toutes les offres, durée limitée. À partir de $2.48/mo

Hébergement VPS GPU

RTX 6000 Pro. A100. RTX5090.
Dédié, pas tranché.

Passthrough complet GPU. RTX 6000 Pro, A100, RTX 5090, RTX 4090. CUDA, cuDNN et PyTorch préinstallés.
Réseau NVMe + 40 Gbit/s. Cloud indépendant depuis 2008.

4.6 · 713 reviews on Trustpilot

À partir de $506.35/mo · 35 % de réduction annuelle · Aucune carte de crédit requise

~ ssh racine@gpu-train-001 connecté
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

VPS GPU en un coup d'œil

Cloudzy vend des forfaits GPU VPS avec dédié RTX 6000 Pro, Nvidia A100, RTX 5090, et RTX4090 cartes dans 1× à 4× configurations, à partir de $506.35 per month. Chaque plan est livré préinstallé avec la dernière version CUDA, cuDNN, et pilotes Nvidia, fonctionne sur AMD EPYC + DDR5 avec NVMe uniquement de stockage et 40 Gbps liaisons montantes et dispositions dans 60 secondes. Les GPU sont des relais dédiés, pas des vGPU, pas MIG, pas partagé. Cloudzy fonctionne de manière indépendante depuis 2008 et est noté 4.6 / 5 by 713+ reviewers sur Trustpilot.

Prix de départ
$506.35 / mo
Types de GPU
6000 Pro · A100 · 5090 · 4090
Configurations
1× à 4×
CUDA
Pré-installé
Remise annuelle
35% de réduction
Remboursement
14 jours

Pourquoi les équipes ML choisissent Cloudzy

Le GPU calcule le manière peu ennuyeuse.

Les quatre raisons pour lesquelles les équipes migrent vers Cloudzy depuis les GPU AWS/GCP/hyperscaler.

Passthrough GPU dédié

La carte physique complète vous appartient, pas de découpage vGPU, pas de partitions MIG, pas de conflit avec d'autres locataires. Cœurs CUDA, VRAM, voies PCIe, tous dédiés.

Images prêtes pour CUDA

Derniers pilotes Nvidia, boîte à outils CUDA et cuDNN pré-intégrés dans l'image Ubuntu. PyTorch, TensorFlow, JAX, Hugging Face, installez pip et vous vous entraînez.

NVMe + 40 Gbit/s

Stockage NVMe pur afin que le chargement des ensembles de données ne soit pas un goulot d'étranglement. Une mise en réseau à 40 Gbit/s signifie que l'extraction d'un modèle Hugging Face de 100 Go se termine en quelques secondes, et non en quelques minutes.

Support humain 24/7

De vrais ingénieurs sur le chat. Nous avons aidé suffisamment d'équipes à mettre en place une formation multi-GPU, à déboguer les MOO CUDA et à régler l'inférence Llama pour que les réponses reviennent rapidement.

Gamme de GPU

Quatre familles.
Neuf façons d'évoluer.

RTX 6000 Pro pour une inférence et un rendu de qualité professionnelle avec 48 Go de VRAM ECC. A100 pour la formation et les charges de travail VRAM importantes. RTX 5090 pour la dernière inférence. RTX 4090 pour une inférence rentable jusqu'à 70 B (4 bits). Plans multi-GPU disponibles, choisissez ce dont votre budget VRAM a besoin.

Passthrough GPU complet, non découpé, non partagé
RTX 6000 Pro
48 GB GDDR6 ECC · Pro-grade
Nvidia A100
80 GB HBM2e · ML training
RTX5090
32 GB GDDR7 · Blackwell
RTX4090
24 GB GDDR6X · cost-effective
1× à 4× GPU
Plans multi-GPU disponibles
CUDA préinstallé
PyTorch · TF · Prêt pour JAX
NVMe pur
E/S de jeu de données rapides
40 Gbps uplink
Extrayez les modèles de 100 Go en 30 s

Cas d'usage

Les charges de travail de notre
les clients s’entraînent réellement.

Inférence LLM

Servez Llama 3, Mistral, DeepSeek ou Qwen avec vLLM ou inférence de génération de texte. Le RTX 4090 gère 70B à 4 bits, le RTX 5090 gère 70B à 8 bits, l'A100 gère non quantifié.

Diffusion stable · génération d'images

Exécutez SDXL, Flux ou des points de contrôle de diffusion stable affinés avec ComfyUI ou Automatic1111. Le RTX 4090 atteint plus de 30 images/min sur le SDXL standard 1024×1024.

Formation ML + mise au point

LoRA, QLoRA, mise au point complète. A100 est le point idéal pour le réglage fin non quantifié 7B-13B ; 4 × A100 gère jusqu'à 70B avec un partitionnement approprié (FSDP / DeepSpeed).

Rendu 3D · Mélangeur

Cycles + OptiX sur les cartes RTX est le chemin le plus rapide pour les studios d'animation. La VRAM de 24 Go du RTX 4090 couvre la grande majorité des scènes de production à image unique.

Pipelines parole + vision

Whisper Large, Faster-Whisper, YOLO, segmenter n'importe quoi. Même le plan RTX 4090 exécute une inférence en temps réel sur ces modèles avec une marge confortable.

Travaux par lots de longue durée

Génération d'intégration, pipelines de récupération, prétraitement des ensembles de données. Payez à l'heure, exécutez le travail, capturez le résultat, détruisez la boîte, moins cher que la location sur AWS/GCP pour la même charge de travail.

80 GB
A100 VRAM
40 Gbps
Liaison montante
Prêt pour CUDA
Image
4 ×
GPU maximum
35%
Arrêt annuel
14 jours
Remboursement

Tarifs

Plans GPU en vedette. Horaire ou annuel.

La facturation annuelle est actuellement 35% de réduction sur chaque plan GPU.

FAQ. GPU VPS

Questions fréquentes, réponses directes.

Quels GPU Cloudzy propose-t-il ?

Quatre familles : RTX 6000 Pro (1×, 48 Go de VRAM GDDR6 ECC, de qualité professionnelle pour l'inférence et le rendu), Nvidia A100 (1×/2×/4×, pour la formation ML, charges de travail fp16/bf16 et 80 Go HBM2e par carte), RTX 5090 (1×/2×, architecture Blackwell plus récente, idéale pour charges de travail d'inférence et rendu) et RTX 4090 (1× / 2× / 4×, rentable pour la diffusion stable, l'inférence LLM et le rendu 3D).

Les GPU sont-ils dédiés ou partagés ?

Dédié. Chaque plan est un relais du ou des GPU physiques complets, et non une tranche, ni un vGPU, ni un MIG. Les cœurs CUDA, la VRAM, la bande passante PCIe, à vous. Les forfaits multi-GPU utilisent NVLink là où le matériel physique le prend en charge (plans multi-A100 GPU).

CUDA est-il préinstallé ?

Oui. Chaque VPS GPU est livré avec la dernière boîte à outils stable CUDA, cuDNN et les pilotes Nvidia pré-intégrés dans l'image Ubuntu. PyTorch, TensorFlow, JAX et la pile Hugging Face sont prêts à l'emploi. Vous pouvez créer une image sur un Ubuntu propre sans CUDA si vous souhaitez installer une version spécifique.

Combien de VRAM puis-je obtenir ?

Par GPU : RTX 6000 Pro = 48 Go GDDR6 ECC, A100 = 80 Go HBM2e, RTX 5090 = 32 Go GDDR7, RTX 4090 = 24 Go GDDR6X. Les forfaits multi-GPU regroupent cela, un forfait 4 × A100 dispose de 320 Go de VRAM totale. La liste des plans ci-dessus montre la RAM système séparément.

Puis-je exécuter Stable Diffusion / Llama / Whisper sur un VPS GPU ?

Oui. Le plan 1 × RTX 4090 est un bon point de départ : suffisamment de VRAM pour l'inférence SDXL, Llama 3 70B (quantisé 4 bits) ou Whisper Large. Passez au RTX 5090 ou A100 si vous devez exécuter des modèles 70B non quantifiés ou former des LoRA.

Comment les prix se comparent-ils à ceux d'AWS/Google Cloud/Lambda Labs ?

Généralement moins cher pour les charges de travail stables, nous ne faisons pas de distinction de prix entre « à la demande » et « sur place » et nous n'avons pas de frais de sortie. Nous ne citerons pas les chiffres des concurrents (ceux-ci changent mensuellement). La garantie de remboursement de 14 jours vous permet d'effectuer des A/B par rapport à votre fournisseur actuel avec vos propres références.

Y a-t-il une réduction annuelle ?

Oui, 35 % de réduction sur la facturation annuelle sur chaque forfait GPU (inférieur aux 50 % sur le CPU standard, car le matériel GPU coûte plus cher à amortir). Pas de renouvellement automatique ; vous recevrez une facture avant chaque cycle annuel afin que vous puissiez rétrograder, mettre à niveau ou annuler sans frais surprises.

Et le réseautage ? Est-ce vraiment 40 Gbit/s ?

Oui. Mêmes liaisons montantes de 40 Gbit/s que notre VPS Cloud phare, sans frais de sortie sur le transfert mensuel jusqu'à concurrence du forfait. Utile pour déplacer de grands ensembles de données vers et hors du nœud GPU, l'extraction d'un modèle Hugging Face de 100 Go prend environ 30 secondes au débit de ligne.

Puis-je exécuter une formation multi-nœuds (plusieurs VPS GPU ensemble) ?

Oui, au sein d'une région. Les VPS du même centre de données partagent le réseau local avec une latence inférieure à la milliseconde. Nous ne proposons actuellement pas d'interconnexion InfiniBand. La formation multi-nœuds sur Ethernet standard convient parfaitement aux tâches de réglage fin et distribuées à petite échelle, mais n'est pas compétitive avec le HPC nu pour les pré-formations à grande échelle.

Garantie de remboursement sur les forfaits GPU ?

14 jours, sans poser de questions. Remboursement dans un cycle de facturation. Vous aurez suffisamment de temps pour évaluer le débit de CUDA, exécuter une véritable étape de formation et décider si Cloudzy est la bonne solution pour votre charge de travail.

Arrêtez de payer des prix hyperscalers.
Entraînez-vous sur des GPU dédiés.

Choisissez une carte, choisissez une région, cliquez. CUDA est déjà installé.

Pas de carte requise · Remboursement sous 14 jours · Résiliation à tout moment