ลด 50% ทุกแพลน เวลาจำกัด เริ่มต้นที่ $2.48/mo

โฮสติ้ง GPU VPS

RTX 6000 โปร A100. RTX5090.
ทุ่มเทไม่หั่นเป็นชิ้น

ส่งผ่าน GPU แบบเต็ม RTX 6000 Pro, A100, RTX 5090, RTX 4090. CUDA, cuDNN, PyTorch ที่ติดตั้งไว้ล่วงหน้าพร้อมแล้ว
NVMe + 40 Gbps networking. Independent cloud since 2008.

4.6 · 713 reviews on Trustpilot

เริ่มต้นที่ $506.35/mo · ลด 35% ต่อปี · ไม่ต้องใช้บัตรเครดิต

~ ssh root@gpu-train-001 เชื่อมต่อแล้ว
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

สรุป GPU VPS

Cloudzy ขายแผน GPU VPS แบบเฉพาะ RTX 6000 โปร, NVIDIA A100, RTX 5090, และ RTX4090 การ์ดเข้า 1× ถึง 4× การกำหนดค่าเริ่มต้นที่ $506.35 per month. แต่ละแผนจะจัดส่งมาพร้อมกับเวอร์ชันล่าสุดที่ติดตั้งไว้ล่วงหน้า CUDA, cuDNN, และไดรเวอร์ Nvidia ทำงานบน AMD EPYC + DDR5 ด้วย NVMe เท่านั้น storage และ 40 Gbps อัปลิงค์และข้อกำหนดใน 60 วินาที. GPU เป็นการส่งผ่านเฉพาะ ไม่ใช่ vGPU ไม่ใช่ MIG ไม่แชร์ Cloudzy ได้ดำเนินการอย่างเป็นอิสระตั้งแต่นั้นเป็นต้นมา 2008 และได้คะแนน 4.6 / 5 by 713+ reviewers บน Trustpilot

ราคาเริ่มต้น
$506.35 / mo
ประเภท GPU
6000 โปร · A100 · 5090 · 4090
การกำหนดค่า
1× ถึง 4×
CUDA
ติดตั้งไว้ล่วงหน้า
ส่วนลดรายปี
ลด 35%
คืนเงิน
14 วัน

เหตุใดทีม ML จึงเลือก Cloudzy

GPU คำนวณ วิธีที่ไม่น่าเบื่อ

เหตุผลสี่ประการที่ทีมย้ายไปยัง Cloudzy จาก AWS / GCP / Hyperscaler GPU

การส่งผ่าน GPU เฉพาะ

การ์ดจริงแบบเต็มเป็นของคุณ ไม่มีการแบ่งส่วน vGPU ไม่มีพาร์ติชัน MIG ไม่มีการโต้แย้งกับผู้เช่ารายอื่น แกน CUDA, VRAM, เลน PCIe ทั้งหมดทุ่มเท

รูปภาพพร้อม CUDA

ไดรเวอร์ Nvidia ล่าสุด, ชุดเครื่องมือ CUDA และ cuDNN ที่อบไว้ล่วงหน้าในอิมเมจ Ubuntu PyTorch, TensorFlow, JAX, Hugging Face, pip install และคุณกำลังฝึกฝน

NVMe + 40 Gbps

พื้นที่จัดเก็บข้อมูล Pure NVMe ดังนั้นการโหลดชุดข้อมูลจึงไม่ใช่ปัญหาคอขวด ระบบเครือข่าย 40 Gbps หมายถึงการดึงโมเดล Hugging Face ขนาด 100 GB เสร็จสิ้นภายในไม่กี่วินาที ไม่ใช่ไม่กี่นาที

ฝ่ายสนับสนุนมนุษย์จริง 24/7

วิศวกรตัวจริงในการแชท เราได้ช่วยทีมมามากพอแล้วในการตั้งค่าการฝึกอบรมแบบ multi-GPU, ดีบัก CUDA OOM และปรับแต่งการอนุมานของ Llama เพื่อให้คำตอบกลับมาอย่างรวดเร็ว

กลุ่มผลิตภัณฑ์ GPU

สี่ครอบครัว.
เก้าวิธีในการขยายขนาด

RTX 6000 Pro สำหรับการอนุมานและการเรนเดอร์ระดับมืออาชีพด้วย ECC VRAM ขนาด 48 GB A100 สำหรับการฝึกอบรมและเวิร์กโหลด VRAM ขนาดใหญ่ RTX 5090 สำหรับการอนุมานใหม่ล่าสุด RTX 4090 สำหรับการอนุมานที่คุ้มค่าสูงสุด 70B (4 บิต) มีแผน Multi-GPU ให้เลือก เลือกงบประมาณ VRAM ที่คุณต้องการ

ส่งผ่าน GPU แบบเต็ม ไม่แบ่งส่วน ไม่แบ่งใช้
RTX 6000 โปร
48 GB GDDR6 ECC · Pro-grade
เอ็นวิเดีย A100
80 GB HBM2e · ML training
RTX5090
32 GB GDDR7 · Blackwell
RTX4090
24 GB GDDR6X · cost-effective
1× ถึง 4× GPU
มีแผน Multi-GPU ให้ใช้งาน
CUDA ติดตั้งไว้ล่วงหน้าแล้ว
PyTorch · TF · JAX พร้อมแล้ว
NVMe บริสุทธิ์
I/O ชุดข้อมูลที่รวดเร็ว
40 Gbps uplink
ดึงโมเดล 100 GB ใน 30 วินาที

กรณีการใช้งาน

ภาระงานของเรา
ลูกค้าฝึกจริง

การอนุมาน LLM

ให้บริการ Llama 3, Mistral, DeepSeek หรือ Qwen ด้วย vLLM หรือการอนุมานการสร้างข้อความ RTX 4090 จัดการ 70B ที่ 4 บิต, RTX 5090 จัดการ 70B ที่ 8 บิต, A100 จัดการแบบไม่เชิงปริมาณ

การแพร่กระจายที่เสถียร · การสร้างภาพ

เรียกใช้ SDXL, Flux หรือจุดตรวจสอบ Stable Diffusion ที่ปรับแต่งอย่างละเอียดด้วย ComfyUI หรือ Automatic1111 RTX 4090 เข้าชม 30+ ภาพ/นาที บน SDXL มาตรฐาน 1024×1024

การฝึกอบรม ML + การปรับแต่งอย่างละเอียด

LoRA, QLoRA, การปรับแต่งแบบเต็ม A100 เป็นจุดที่น่าสนใจสำหรับการปรับแต่งแบบละเอียดแบบไม่มีปริมาณของ 7B-13B; 4× A100 รองรับได้ถึง 70B พร้อมการแบ่งส่วนที่เหมาะสม (FSDP / DeepSpeed)

การเรนเดอร์ 3 มิติ · เครื่องปั่น

Cycles + OptiX บนการ์ด RTX เป็นเส้นทางที่เร็วที่สุดสำหรับสตูดิโอแอนิเมชัน VRAM ขนาด 24 GB บน RTX 4090 ครอบคลุมฉากการผลิตเฟรมเดียวส่วนใหญ่

ไปป์ไลน์คำพูด + การมองเห็น

กระซิบขนาดใหญ่, เร็วกว่า - กระซิบ, YOLO, แบ่งส่วนอะไรก็ได้ แม้แต่แผน RTX 4090 ก็ยังเรียกใช้การอนุมานแบบเรียลไทม์ในรุ่นเหล่านี้โดยมีพื้นที่ว่างด้านบนที่สะดวกสบาย

งานแบทช์ที่ใช้เวลานาน

การสร้างการฝัง ไปป์ไลน์การดึงข้อมูล การประมวลผลชุดข้อมูลล่วงหน้า จ่ายรายชั่วโมง รันงาน สแนปเอาท์ ทำลายกล่อง ราคาถูกกว่าเช่า AWS/GCP สำหรับเวิร์กโหลดเท่าเดิม

80 GB
A100 วีแรม
40 Gbps
อัปลิงค์
CUDA พร้อมแล้ว
ภาพ
4 ×
GPU สูงสุด
35%
หยุดประจำปี
14 วัน
คืนเงิน

ราคา

แผน GPU ที่โดดเด่น รายชั่วโมงหรือรายปี

ขณะนี้มีการเรียกเก็บเงินรายปี ลด 35% ในทุกแผน GPU

คำถามที่พบบ่อย GPU VPS

คำถามที่พบบ่อย คำตอบตรงไปตรงมา

Cloudzy มี GPU รุ่นใดบ้าง?

สี่ตระกูล: RTX 6000 Pro (1×, 48 GB GDDR6 ECC VRAM, เกรดโปรสำหรับการอนุมานและการเรนเดอร์), Nvidia A100 (1× / 2× / 4×, สำหรับการฝึก ML, ปริมาณงาน fp16/bf16 และ 80 GB HBM2e ต่อการ์ด), RTX 5090 (1× / 2×, Blackwell รุ่นใหม่กว่า สถาปัตยกรรม เหมาะสำหรับปริมาณงานการอนุมานและการเรนเดอร์) และ RTX 4090 (1× / 2× / 4× คุ้มต้นทุนสำหรับ Stable Diffusion, การอนุมาน LLM และการเรนเดอร์ 3D)

GPU เป็นเฉพาะหรือแชร์หรือไม่

อุทิศ. แต่ละแผนเป็นการส่งต่อของ GPU แบบฟิสิคัลแบบเต็ม ไม่ใช่สไลซ์ ไม่ใช่ vGPU ไม่ใช่ MIG แกน CUDA, VRAM, แบนด์วิธ PCIe ทั้งหมดเป็นของคุณ แผน Multi-GPU ใช้ NVLink โดยที่ฮาร์ดแวร์ทางกายภาพรองรับ (แผน A100 multi-GPU)

CUDA ติดตั้งไว้ล่วงหน้าหรือไม่

ใช่. GPU VPS ทุกตัวมาพร้อมกับชุดเครื่องมือ CUDA ที่เสถียรล่าสุด, ไดรเวอร์ cuDNN และ Nvidia ที่รวมอยู่ในอิมเมจ Ubuntu ล่วงหน้า PyTorch, TensorFlow, JAX และสแต็ค Hugging Face หมดกล่อง คุณสามารถเปลี่ยนอิมเมจใหม่เป็น Ubuntu โดยไม่ต้องใช้ CUDA หากคุณต้องการติดตั้งเวอร์ชันเฉพาะ

ฉันจะได้รับ VRAM เท่าใด

ต่อ GPU: RTX 6000 Pro = 48 GB GDDR6 ECC, A100 = 80 GB HBM2e, RTX 5090 = 32 GB GDDR7, RTX 4090 = 24 GB GDDR6X แผน Multi-GPU สรุปได้ว่า แผน 4× A100 มี VRAM ทั้งหมด 320 GB รายการแผนด้านบนแสดง RAM ของระบบแยกกัน

ฉันสามารถรัน Stable Diffusion / Llama / Whisper บน GPU VPS ได้หรือไม่

ใช่. แผน 1× RTX 4090 เป็นจุดเริ่มต้นที่ดี: มี VRAM ที่เพียงพอสำหรับการอนุมาน SDXL, Llama 3 70B (แบบควอนตัมแบบ 4 บิต) หรือ Whisper Large เปลี่ยนไปใช้ RTX 5090 หรือ A100 หากคุณต้องการใช้งานโมเดล 70B ที่ไม่จำกัดจำนวนหรือฝึก LoRA

ราคาเปรียบเทียบกับ AWS / Google Cloud / Lambda Labs เป็นอย่างไร

โดยทั่วไปแล้วจะถูกกว่าสำหรับปริมาณงานในสภาวะคงตัว เราไม่แบ่งแยกราคาตาม "ตามความต้องการ" กับ "ทันที" และเราไม่มีค่าธรรมเนียมขาออก เราจะไม่เสนอราคาหมายเลขของคู่แข่ง (ที่เปลี่ยนแปลงทุกเดือน) การรับประกันคืนเงินภายใน 14 วันช่วยให้คุณสามารถ A/B เทียบกับผู้ให้บริการปัจจุบันของคุณด้วยเกณฑ์มาตรฐานของคุณเอง

มีส่วนลดรายปีมั้ย?

ใช่ ส่วนลด 35% สำหรับการเรียกเก็บเงินรายปีสำหรับแผน GPU ทุกแผน (ต่ำกว่า 50% สำหรับ CPU ปกติ เนื่องจากฮาร์ดแวร์ GPU มีค่าใช้จ่ายในการตัดจำหน่ายมากกว่า) ไม่มีการต่ออายุอัตโนมัติ คุณจะได้รับใบแจ้งหนี้ก่อนแต่ละรอบปี เพื่อให้คุณสามารถดาวน์เกรด อัปเกรด หรือยกเลิกโดยไม่ต้องเสียค่าใช้จ่ายใดๆ

แล้วระบบเครือข่ายล่ะ? 40 Gbps จริงเหรอ?

ใช่. อัปลิงก์ 40 Gbps เหมือนกับ Cloud VPS รุ่นเรือธงของเรา โดยไม่มีค่าธรรมเนียมขาออกในการโอนรายเดือนตามแผน มีประโยชน์สำหรับการย้ายชุดข้อมูลขนาดใหญ่เข้าและออกจากโหนด GPU การดึงโมเดล Hugging Face ขนาด 100 GB ใช้เวลาประมาณ 30 วินาทีในอัตราบรรทัด

ฉันสามารถรันการฝึกอบรมแบบหลายโหนด (GPU VPS หลายตัวพร้อมกัน) ได้หรือไม่

ใช่ภายในภูมิภาค VPS ในศูนย์ข้อมูลเดียวกันแชร์เครือข่ายท้องถิ่นด้วยเวลาแฝงที่ต่ำกว่ามิลลิวินาที ขณะนี้เราไม่มีการเชื่อมต่อระหว่างกันแบบ InfiniBand การฝึกแบบหลายโหนดบนอีเทอร์เน็ตมาตรฐานนั้นใช้ได้ดีสำหรับการปรับแต่งอย่างละเอียดและงานกระจายขนาดเล็ก แต่ไม่สามารถแข่งขันกับ HPC แบบ Bare Metal สำหรับการฝึกล่วงหน้าขนาดใหญ่ได้

รับประกันคืนเงินสำหรับแผน GPU?

14 วัน ไม่มีการถามคำถามใดๆ คืนเงินภายในรอบบิลเดียว มีเวลาเหลือเฟือในการวัดประสิทธิภาพปริมาณงาน CUDA ดำเนินขั้นตอนการฝึกอบรมจริง และตัดสินใจว่า Cloudzy เหมาะสมกับปริมาณงานของคุณหรือไม่

หยุดจ่ายราคาไฮเปอร์สเกลเลอร์
ฝึกฝนบน GPU เฉพาะ

เลือกการ์ด เลือกภูมิภาค คลิก CUDA ได้รับการติดตั้งแล้ว

ไม่ต้องใช้บัตรเครดิต · คืนเงินภายใน 14 วัน · ยกเลิกได้ทุกเมื่อ