Diskon 50%. semua paket, waktu terbatas. Mulai dari $2.48/mo

Hosting VPS GPU

RTX 6000 Pro. A100. RTX 5090.
Berdedikasi, bukan diiris.

Melewati GPU penuh. RTX 6000 Pro, A100, RTX 5090, RTX 4090. CUDA, cuDNN, PyTorch yang sudah diinstal sebelumnya sudah siap.
Jaringan NVMe + 40 Gbps. Cloud independen sejak 2008.

4.6 · 713 reviews on Trustpilot

Mulai dari $506.35/mo · Diskon 35% tahunan · Tidak diperlukan kartu kredit

~ ssh root@gpu-train-001 terhubung
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

Sekilas tentang GPU VPS

Cloudzy menjual paket GPU VPS dengan dedicated RTX 6000 Pro, Nvidia A100, RTX 5090, Dan RTX4090 kartu masuk 1× hingga 4× konfigurasi, mulai dari $506.35 per month. Setiap paket dikirimkan dengan paket terbaru yang sudah diinstal sebelumnya CUDA, cuDNN, dan driver Nvidia, berjalan pada AMD EPYC + DDR5 dengan Khusus NVMe penyimpanan dan 40 Gbps uplink, dan ketentuan di 60 detik. GPU adalah passthrough khusus, bukan vGPU, bukan MIG, tidak dibagikan. Cloudzy telah beroperasi secara independen sejak saat itu 2008 dan dinilai 4.6 / 5 by 713+ reviewers di Trustpilot.

Harga mulai
$506.35 / mo
Jenis GPU
6000 Pro · A100 · 5090 · 4090
Konfigurasi
1× hingga 4×
CUDA
Pra-instal
Diskon tahunan
Diskon 35%.
Uang kembali
14 hari

Mengapa tim ML memilih Cloudzy

GPU menghitung cara yang tidak membosankan.

Empat alasan tim berpindah ke Cloudzy dari GPU AWS/GCP/hyperscaler.

Passthrough GPU khusus

Kartu fisik lengkap adalah milik Anda, tidak ada pemotongan vGPU, tidak ada partisi MIG, tidak ada perselisihan dengan penyewa lain. Inti CUDA, VRAM, jalur PCIe, semuanya berdedikasi.

Gambar siap CUDA

Driver Nvidia terbaru, toolkit CUDA, dan cuDNN sudah dimasukkan ke dalam image Ubuntu. PyTorch, TensorFlow, JAX, Hugging Face, pip install dan Anda sedang berlatih.

NVMe + 40 Gbps

Penyimpanan NVMe murni sehingga pemuatan kumpulan data tidak menjadi hambatan. Jaringan 40 Gbps berarti menyelesaikan model Hugging Face 100 GB dalam hitungan detik, bukan menit.

Dukungan manusia 24/7

Insinyur sejati sedang mengobrol. Kami telah membantu cukup banyak tim menyiapkan pelatihan multi-GPU, men-debug CUDA OOM, dan menyempurnakan inferensi Llama sehingga jawabannya akan muncul dengan cepat.

Jajaran GPU

Empat keluarga.
Sembilan cara untuk menskalakan.

RTX 6000 Pro untuk inferensi dan rendering kelas pro dengan ECC VRAM 48 GB. A100 untuk pelatihan dan beban kerja VRAM besar. RTX 5090 untuk inferensi terbaru. RTX 4090 untuk inferensi hemat biaya hingga 70B (4-bit). Tersedia paket multi-GPU, pilih sesuai kebutuhan anggaran VRAM Anda.

Passthrough GPU penuh, tidak diiris, tidak dibagikan
RTX 6000 Pro
48 GB GDDR6 ECC · Pro-grade
Nvidia A100
80 GB HBM2e · ML training
RTX 5090
32 GB GDDR7 · Blackwell
RTX4090
24 GB GDDR6X · cost-effective
GPU 1× hingga 4×
Tersedia paket multi-GPU
CUDA sudah diinstal sebelumnya
PyTorch · TF · JAX siap
NVMe murni
I/O kumpulan data cepat
40 Gbps uplink
Tarik model 100 GB dalam 30 detik

Kasus penggunaan

Beban kerja kami
pelanggan benar-benar berlatih.

inferensi LLM

Sajikan Llama 3, Mistral, DeepSeek, atau Qwen dengan vLLM atau Inferensi Pembuatan Teks. RTX 4090 menangani 70B pada 4-bit, RTX 5090 menangani 70B pada 8-bit, A100 menangani tidak terkuantisasi.

Difusi Stabil · gen gambar

Jalankan SDXL, Flux, atau pos pemeriksaan Difusi Stabil yang disempurnakan dengan ComfyUI atau Automatic1111. RTX 4090 mencapai 30+ gambar/menit pada standar 1024×1024 SDXL.

Pelatihan ML + penyesuaian

LoRA, QLoRA, penyempurnaan penuh. A100 adalah titik terbaik untuk fine-tuning tak terukur 7B-13B; 4× A100 menangani hingga 70B dengan sharding yang tepat (FSDP / DeepSpeed).

Render 3D · Blender

Cycles + OptiX pada kartu RTX adalah jalur tercepat untuk studio animasi. VRAM 24 GB pada RTX 4090 mencakup sebagian besar adegan produksi bingkai tunggal.

Saluran bicara + visi

Bisikan Besar, Bisikan Lebih Cepat, YOLO, Segmentasikan Apa Saja. Bahkan paket RTX 4090 menjalankan inferensi real-time pada model ini dengan ruang kepala yang nyaman.

Pekerjaan batch yang berjalan lama

Menanamkan generasi, jalur pengambilan, pra-pemrosesan kumpulan data. Bayar setiap jam, jalankan pekerjaan, ambil snapshot hasilnya, hancurkan kotaknya, lebih murah dibandingkan menyewa AWS/GCP untuk beban kerja yang sama.

80 GB
VRAM A100
40 Gbps
Tautan ke atas
Siap untuk CUDA
Gambar
4 ×
GPU maksimal
35%
Cuti tahunan
14 hari
Uang kembali

Harga

Paket GPU unggulan. Setiap jam atau tahunan.

Penagihan tahunan saat ini Diskon 35%. pada setiap paket GPU.

Pertanyaan Umum. VPS GPU

Pertanyaan umum, jawaban lugas.

GPU apa yang ditawarkan Cloudzy?

Empat kelompok: RTX 6000 Pro (1×, 48 GB GDDR6 ECC VRAM, kelas pro untuk inferensi dan rendering), Nvidia A100 (1× / 2× / 4×, untuk pelatihan ML, beban kerja fp16/bf16, dan HBM2e 80 GB per kartu), RTX 5090 (1× / 2×, arsitektur Blackwell yang lebih baru, ideal untuk beban kerja dan rendering inferensi), dan RTX 4090 (1× / 2× / 4×, hemat biaya untuk Difusi Stabil, inferensi LLM, dan rendering 3D).

Apakah GPU tersebut didedikasikan atau dibagikan?

Berdedikasi. Setiap paket merupakan bagian dari GPU fisik penuh, bukan sepotong, bukan vGPU, bukan MIG. Inti CUDA, VRAM, bandwidth PCIe, semuanya milik Anda. Paket multi-GPU menggunakan NVLink jika perangkat keras fisik mendukungnya (paket A100 multi-GPU).

Apakah CUDA sudah diinstal sebelumnya?

Ya. Setiap GPU VPS dikirimkan dengan toolkit CUDA stabil terbaru, cuDNN, dan driver Nvidia yang sudah dimasukkan ke dalam image Ubuntu. PyTorch, TensorFlow, JAX, dan tumpukan Hugging Face sudah habis. Anda dapat melakukan image ulang ke Ubuntu yang bersih tanpa CUDA jika Anda ingin menginstal versi tertentu.

Berapa banyak VRAM yang saya dapatkan?

Per GPU: RTX 6000 Pro = 48 GB GDDR6 ECC, A100 = 80 GB HBM2e, RTX 5090 = 32 GB GDDR7, RTX 4090 = 24 GB GDDR6X. Paket Multi-GPU menggabungkan itu, paket 4× A100 memiliki total VRAM 320 GB. Daftar paket di atas menunjukkan RAM sistem secara terpisah.

Bisakah saya menjalankan Stable Diffusion / Llama / Whisper pada GPU VPS?

Ya. Paket 1× RTX 4090 adalah titik awal yang baik: VRAM yang cukup untuk inferensi SDXL, Llama 3 70B (kuantisasi 4-bit), atau Whisper Large. Gunakan RTX 5090 atau A100 jika Anda perlu menjalankan model 70B yang tidak terkuantisasi atau melatih LoRA.

Bagaimana perbandingan harganya dengan AWS / Google Cloud / Lambda Labs?

Secara umum lebih murah untuk beban kerja kondisi tetap, kami tidak melakukan diskriminasi harga berdasarkan 'sesuai permintaan' vs 'spot' dan kami tidak mengenakan biaya keluar. Kami tidak akan mengutip nomor pesaing (yang berubah setiap bulan). Jaminan uang kembali 14 hari memungkinkan Anda melakukan A/B terhadap penyedia Anda saat ini dengan tolok ukur Anda sendiri.

Apakah ada diskon tahunan?

Ya, diskon 35% untuk penagihan tahunan pada setiap paket GPU (lebih rendah dari 50% pada CPU biasa karena perangkat keras GPU lebih mahal untuk diamortisasi). Tidak ada perpanjangan otomatis; Anda akan mendapatkan faktur sebelum setiap siklus tahunan sehingga Anda dapat menurunkan versi, meningkatkan versi, atau membatalkan tanpa biaya kejutan.

Bagaimana dengan jaringan? Beneran 40Gbps?

Ya. Uplink 40 Gbps yang sama dengan Cloud VPS andalan kami, tanpa biaya keluar untuk transfer bulanan hingga kuota paket. Berguna untuk memindahkan kumpulan data besar masuk dan keluar dari node GPU, menarik model Hugging Face 100 GB membutuhkan waktu sekitar 30 detik pada kecepatan garis.

Bisakah saya menjalankan pelatihan multi-node (beberapa GPU VPS secara bersamaan)?

Ya dalam suatu wilayah. VPS di pusat data yang sama berbagi jaringan lokal dengan latensi sub-milidetik. Saat ini kami tidak menawarkan interkoneksi InfiniBand, pelatihan multi-node melalui Ethernet standar baik untuk pekerjaan fine-tuning dan terdistribusi skala kecil tetapi tidak kompetitif dengan HPC bare-metal untuk pra-pelatihan besar.

Jaminan uang kembali pada paket GPU?

14 hari, tidak ada pertanyaan yang diajukan. Pengembalian dana dalam satu siklus penagihan. Banyak waktu untuk mengukur throughput CUDA, menjalankan langkah pelatihan nyata, dan memutuskan apakah Cloudzy cocok untuk beban kerja Anda.

Berhenti membayar harga yang sangat mahal.
Berlatih pada GPU khusus.

Pilih kartu, pilih wilayah, klik. CUDA sudah terinstal.

Tanpa kartu kredit · Garansi uang kembali 14 hari · Batal kapan saja