%50 indirim tüm planlarda, sınırlı süreyle. Başlangıç fiyatı $2.48/mo

GPU VPS Barındırma

RTX 6000Pro. A100. RTX5090.
Özel, dilimlenmiş değil.

Tam GPU geçişi. RTX 6000 Pro, A100, RTX 5090, RTX 4090. Önceden yüklenmiş CUDA, cuDNN, PyTorch hazır.
NVMe + 40 Gbps ağ bağlantısı. 2008'den beri bağımsız bulut.

4.6 · 713 reviews on Trustpilot

Başlangıç fiyatı $506.35/mo · Yıllık %35 indirim · Kredi kartına gerek yok

~ ssh root@gpu-train-001 bağlı
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

Bir bakışta GPU VPS

Cloudzy GPU VPS planlarını özel olarak satıyor RTX 6000 Pro, Nvidia A100, RTX 5090, Ve RTX 4090 kartlar 1× ila 4× başlayan konfigürasyonlar $506.35 per month. Her plan en son sürüm önceden yüklenmiş olarak gönderilir CUDAcuDNN, ve Nvidia sürücüleri, AMD EPYC + DDR5 üzerinde çalışır Yalnızca NVMe depolama ve 40 Gbps yukarı bağlantılar ve hükümler 60 saniye. GPU'ler vGPU değil, özel geçiştir. MIG değil, paylaşılmıyor. Cloudzy o zamandan beri bağımsız olarak çalışmaktadır. 2008 ve puanı 4.6 / 5 by 713+ reviewers Trustpilot'ta.

Başlangıç fiyatı
$506.35 / mo
GPU türleri
6000 Profesyonel · A100 · 5090 · 4090
Yapılandırmalar
1× ila 4×
CUDA
Önceden yüklenmiş
Yıllık indirim
%35 indirim
Para iadesi
14 gün

Makine öğrenimi ekipleri neden Cloudzy'i seçiyor?

GPU hesaplama sıkıcı olmayan bir yol.

Ekiplerin AWS / GCP / hiper ölçekleyici GPU'lardan Cloudzy'ye geçmesinin dört nedeni.

Özel GPU geçişi

Fiziksel kartın tamamı size ait; vGPU dilimleme yok, MIG bölümleri yok, diğer kiracılarla çekişme yok. CUDA çekirdekleri, VRAM, PCIe hatları, hepsi ayrılmış.

CUDA'ya hazır görüntüler

En son Nvidia sürücüleri, CUDA araç seti ve cuDNN, Ubuntu görüntüsüne önceden eklenmiştir. PyTorch, TensorFlow, JAX, Hugging Face, pip kurulumu ve eğitim alıyorsunuz.

NVMe + 40 Gb/sn

Saf NVMe depolama sayesinde veri kümesi yüklemesi darboğaz oluşturmaz. 40 Gbps ağ bağlantısı, 100 GB Hugging Face modelinin çekilmesinin dakikalar değil, saniyeler içinde tamamlanacağı anlamına gelir.

7/24 insan desteği

Sohbette gerçek mühendisler. Yeterli sayıda ekibin çoklu GPU eğitimi oluşturmasına, CUDA OOM'larında hata ayıklamasına ve yanıtların hızlı bir şekilde geri gelmesini sağlayacak şekilde Llama çıkarımını ayarlamasına yardımcı olduk.

GPU dizisi

Dört aile.
Ölçeklendirmenin dokuz yolu.

48 GB ECC VRAM ile profesyonel düzeyde çıkarım ve işleme için RTX 6000 Pro. Eğitim ve büyük VRAM iş yükleri için A100. En yeni çıkarım için RTX 5090. 70B'ye (4 bit) kadar uygun maliyetli çıkarım için RTX 4090. Çoklu GPU planları mevcuttur; VRAM bütçenizin neye ihtiyacı olduğunu seçin.

Tam GPU geçişi, dilimlenmemiş, paylaşılmamış
RTX 6000 Pro
48 GB GDDR6 ECC · Pro-grade
Nvidia A100
80 GB HBM2e · ML training
RTX 5090
32 GB GDDR7 · Blackwell
RTX 4090
24 GB GDDR6X · cost-effective
1 × ila 4 × GPU
Çoklu GPU planları mevcut
CUDA önceden yüklenmiş
PyTorch · TF · JAX'e hazır
Saf NVMe
Hızlı veri kümesi G/Ç
40 Gbps uplink
100 GB'lık modelleri 30'larda çekin

Kullanım alanları

İş yüklerimiz
müşteriler aslında eğitim veriyor.

Yüksek Lisans çıkarımı

Llama 3, Mistral, DeepSeek veya Qwen'i vLLM veya Metin Oluşturma Çıkarımı ile servis edin. RTX 4090 4 bitte 70B'yi, RTX 5090 8 bitte 70B'yi, A100 ise nicelenmemiş işlemleri yönetir.

Kararlı Difüzyon · görüntü oluşturma

ComfyUI veya Otomatik1111 ile SDXL, Flux veya ince ayarlı Stabil Difüzyon kontrol noktalarını çalıştırın. RTX 4090, standart 1024×1024 SDXL'de dakikada 30'dan fazla görüntüye ulaşıyor.

Makine öğrenimi eğitimi + ince ayar

LoRA, QLoRA, tam ince ayar. A100, 7B-13B'nin nicelenmemiş ince ayarının en uygun noktasıdır; 4× A100, uygun parçalamayla (FSDP / DeepSpeed) 70B'ye kadar işleyebilir.

3D oluşturma · Blender

RTX kartlarındaki Cycles + OptiX, animasyon stüdyoları için en hızlı yoldur. RTX 4090'daki 24 GB VRAM, tek kare prodüksiyon sahnelerinin büyük çoğunluğunu kapsar.

Konuşma + görüntü ardışık düzenleri

Büyük Fısıltı, Daha Hızlı Fısıltı, YOLO, Her Şeyi Segmentlere Ayırın. RTX 4090 planı bile bu modellerde rahat bir boşluk payı ile gerçek zamanlı çıkarımlar gerçekleştirir.

Uzun süren toplu işler

Gömme oluşturma, alma işlem hatları, veri kümesi ön işleme. Saatlik ödeme yapın, işi çalıştırın, çıktının anlık görüntüsünü alın, kutuyu yok edin; bu, aynı iş yükü için AWS/GCP kiralamaktan daha ucuzdur.

80 GB
A100VRAM
40 Gbps
Yukarı bağlantı
CUDA'ya hazır
Resim
4 ×
Maksimum GPU'lar
35%
Yıllık izin
14 gün
Para iadesi

Fiyatlandırma

Öne çıkan GPU planları. Saatlik veya yıllık.

Yıllık faturalandırma şu anda %35 indirim her GPU planında.

SSS. GPU VPS

Sık sorulan sorular, net cevaplar.

Cloudzy hangi GPU'ları sunuyor?

Dört aile: RTX 6000 Pro (1×, 48 GB GDDR6 ECC VRAM, çıkarım ve işleme için profesyonel düzeyde), Nvidia A100 (1× / 2× / 4×, makine öğrenimi eğitimi, fp16/bf16 iş yükleri ve kart başına 80 GB HBM2e için), RTX 5090 (1× / 2×, daha yeni Blackwell) çıkarım iş yükleri ve işleme için ideal mimari) ve RTX 4090 (1× / 2× / 4×, Kararlı Difüzyon, LLM çıkarımı ve 3D oluşturma için uygun maliyetli).

GPU'lar ayrılmış mı yoksa paylaşılmış mı?

Özel. Her plan, tam fiziksel GPU(ler)in bir geçişidir; bir dilim değildir, vGPU değildir, MIG değildir. CUDA çekirdekleri, VRAM, PCIe bant genişliği, hepsi sizin. Çoklu GPU planları, fiziksel donanımın desteklediği yerde NVLink'i kullanır (A100 çoklu GPU planları).

CUDA önceden yüklenmiş mi?

Evet. Her GPU VPS, Ubuntu görüntüsüne önceden hazırlanmış en son kararlı CUDA araç seti, cuDNN ve Nvidia sürücüleri ile birlikte gelir. PyTorch, TensorFlow, JAX ve Hugging Face yığını kutudan çıkar. Belirli bir sürümü yüklemek istiyorsanız CUDA olmadan temiz bir Ubuntu'ya yeniden görüntü oluşturabilirsiniz.

Ne kadar VRAM alacağım?

GPU başına: RTX 6000 Pro = 48 GB GDDR6 ECC, A100 = 80 GB HBM2e, RTX 5090 = 32 GB GDDR7, RTX 4090 = 24 GB GDDR6X. Çoklu GPU planları, 4× A100 planının toplam 320 GB VRAM'e sahip olduğunu bir araya getirir. Yukarıdaki plan listesi sistem RAM'ini ayrı ayrı göstermektedir.

Stable Diffusion / Llama / Whisper'ı GPU VPS'de çalıştırabilir miyim?

Evet. 1× RTX 4090 planı iyi bir başlangıç ​​noktasıdır: SDXL çıkarımı için yeterli VRAM, Llama 3 70B (4 bit nicemlenmiş) veya Whisper Large. Ölçülmemiş 70B modellerini çalıştırmanız veya LoRA'ları eğitmeniz gerekiyorsa RTX 5090 veya A100'e geçin.

Fiyatlandırma AWS / Google Cloud / Lambda Labs ile karşılaştırıldığında nasıldır?

Genellikle sabit durum iş yükleri için daha ucuzdur, 'talep üzerine' ve 'spot' arasında fiyat ayrımı yapmayız ve çıkış ücretlerimiz yoktur. Rakip numaralarını belirtmeyeceğiz (bunlar aylık olarak değişir). 14 günlük para iade garantisi, kendi kriterlerinizle mevcut sağlayıcınıza karşı A/B yapmanızı sağlar.

Yıllık indirim var mı?

Evet, her GPU planında yıllık faturalandırmada %35 indirim (normal CPU'deki %50'den daha düşük çünkü GPU donanımının amortisman maliyeti daha yüksek). Otomatik yenileme yok; Her yıllık döngüden önce bir fatura alacaksınız, böylece sürpriz ücretler olmadan sürüm düşürebilir, yükseltebilir veya iptal edebilirsiniz.

Ağ oluşturmaya ne dersiniz? Gerçekten 40 Gbps mi?

Evet. Amiral gemisi Cloud VPS ile aynı 40 Gbps uplink'ler, plan ödeneğine kadar aylık transferde çıkış ücreti yok. Büyük veri kümelerini GPU düğümünün içine ve dışına taşımak için kullanışlı olan 100 GB Hugging Face modelinin çekilmesi, hat hızında yaklaşık 30 saniye sürer.

Çok düğümlü eğitim (birden fazla GPU VPS'yi bir arada) çalıştırabilir miyim?

Evet bir bölge içinde. Aynı veri merkezindeki VPS, yerel ağı milisaniyenin altında bir gecikmeyle paylaşır. Şu anda InfiniBand ara bağlantısı sunmuyoruz; standart Ethernet üzerinden çok düğümlü eğitim, ince ayar ve küçük ölçekli dağıtılmış işler için uygundur ancak büyük ön eğitim için çıplak metal HPC ile rekabet edemez.

GPU planlarında para iade garantisi var mı?

14 gün, hiçbir soru sorulmadı. Bir faturalandırma döngüsü içinde geri ödeme. CUDA verimini kıyaslamak, gerçek bir eğitim adımı yürütmek ve Cloudzy'nin iş yükünüze uygun olup olmadığına karar vermek için bolca zamanınız var.

Hiper ölçekleyici fiyatlarını ödemeyi bırakın.
Özel GPU'lar konusunda eğitim alın.

Bir kart seçin, bir bölge seçin ve tıklayın. CUDA zaten kurulu.

Kredi kartı gerekmez · 14 gün para iade garantisi · İstediğin an iptal et