50% off 所有套餐限时优惠,起价 $2.48/mo

GPU VPS 托管

RTX 6000 Pro。A100。RTX 5090。
独占直通,不共享切分。

完整 GPU 直通。RTX 6000 Pro、A100、RTX 5090、RTX 4090。预装 CUDA、cuDNN,支持 PyTorch。
NVMe + 40 Gbps 网络。自 2008 年起独立运营的云服务商。

4.6 · 713 reviews on Trustpilot

Starting at $506.35/mo · 年付享7折优惠 · 无需绑定信用卡

~ ssh root@gpu-train-001 connected
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

GPU VPS 概览

Cloudzy 销售附带专属 GPU VPS 方案 RTX 6000 Pro, Nvidia A100, RTX 5090, and RTX 4090 cards in 1× to 4× configurations, starting at $506.35 per month。 每个套餐均预装最新版 CUDA, cuDNN, 以及 Nvidia 驱动,运行于 AMD EPYC + DDR5,配有 NVMe-only storage and 40 Gbps 上行链路,并在 60 seconds。GPU 均为专用直通模式,非 vGPU,非 MIG,非共享资源。Cloudzy 自 2008 and is rated 4.6 / 5 by 713+ reviewers on Trustpilot.

Starting price
$506.35 / mo
GPU types
6000 Pro · A100 · 5090 · 4090
Configs
1× to 4×
CUDA
Pre-installed
Annual discount
35% off
Money-back
14 days

为什么 ML 团队选择 Cloudzy

GPU compute the unboring way.

团队从 AWS / GCP / 超大规模云服务商迁移到 Cloudzy 的四个原因。

专用 GPU 直通

整张物理显卡完全归你所有,无虚拟切片,无 MIG 分区,无需与其他租户竞争资源。CUDA 核心、VRAM、PCIe 通道,全部独享。

CUDA 就绪镜像

最新驱动、CUDA toolkit 和 cuDNN 已预装到镜像中。PyTorch、TensorFlow、JAX、Hugging Face,pip install 即可开始训练。

NVMe + 40 Gbps

纯 NVMe 存储,数据集加载不再是瓶颈。40 Gbps 网络带宽让你在几秒内完成 100 GB Hugging Face 模型的下载,而不是等上几分钟。

24/7 human support

真正的工程师在线支持。我们帮助过大量团队搭建多GPU训练环境、排查CUDA内存溢出问题、调优Llama推理性能,所以遇到这些问题,我们能给你快速的答案。

GPU lineup

Four families.
九种扩展方式。

RTX 6000 Pro for pro-grade inference and rendering with 48 GB ECC VRAM. A100 for training and large-VRAM workloads. RTX 5090 for the newest inference. RTX 4090 for cost-effective inference up to 70B (4-bit). Multi-GPU plans available, pick what your VRAM budget needs.

完整 GPU 直通,不切片,不共享
RTX 6000 Pro
48 GB GDDR6 ECC · Pro-grade
Nvidia A100
80 GB HBM2e · ML training
RTX 5090
32 GB GDDR7 · Blackwell
RTX 4090
24 GB GDDR6X · cost-effective
1× to 4× GPU
多节点方案可选
CUDA preinstalled
PyTorch · TF · JAX 就绪
Pure NVMe
Fast dataset I/O
40 Gbps uplink
Pull 100 GB models in 30s

Use cases

我们的工作负载
客户实际训练所用的配置。

LLM inference

使用 vLLM 或 Text Generation Inference 部署 Llama 3、Mistral、DeepSeek 或 Qwen。RTX 4090 支持 4-bit 量化下的 70B 模型,RTX 5090 支持 8-bit 量化下的 70B 模型,A100 支持未量化模型。

Stable Diffusion · 图像生成

使用 ComfyUI 或 Automatic1111 运行 SDXL、Flux 或微调后的 Stable Diffusion 检查点。RTX 4090 在标准 1024×1024 SDXL 任务上可达 30+ 张/分钟。

ML 训练与微调

支持 LoRA、QLoRA 及全量微调。A100 是 7B-13B 未量化微调的最佳选择;4× A100 配合分片策略(FSDP / DeepSpeed)可处理最高 70B 的模型。

3D rendering · Blender

在 RTX 显卡上使用 Cycles + OptiX 是动画工作室最快的渲染方案。RTX 4090 上配备的 24 GB VRAM 能覆盖绝大多数单帧生产场景。

语音与视觉推理管道

支持 Whisper Large、Faster-Whisper、YOLO 和 Segment Anything。即便是 RTX 4090 方案,也能在这些模型上跑实时推理,并留有充裕余量。

长时批处理任务

向量生成、检索管道、数据集预处理。按小时计费,跑完任务,快照输出,销毁实例——同等负载下比在 AWS/GCP 上租用更划算。

80 GB
A100 VRAM
40 Gbps
Uplink
CUDA-ready
Image
4 ×
Max GPUs
35%
Annual off
14 days
Money-back

Pricing

精选 GPU 方案。 Hourly or annual.

年付当前优惠 35% off 适用于所有 GPU 方案。

常见问题。GPU VPS

Common questions, straight answers.

Cloudzy 提供哪些 GPU?

共四个系列:RTX 6000 Pro(1×,48 GB GDDR6 ECC VRAM,专业级推理与渲染);Nvidia A100(1× / 2× / 4×,适用于 ML 训练、fp16/bf16 工作负载,每卡 80 GB HBM2e);RTX 5090(1× / 2×,采用更新的 Blackwell 架构,适合推理与渲染);以及 RTX 4090(1× / 2× / 4×,性价比高,适用于 Stable Diffusion、LLM 推理及 3D 渲染)。

GPU 是独享还是共享的?

独享。每个方案直通完整的物理 GPU,不分片、不虚拟化(vGPU)、不使用 MIG。CUDA 核心、VRAM、PCIe 带宽,全部归你。多卡方案在物理硬件支持的情况下启用 NVLink(适用于 A100 多卡方案)。

CUDA 是否已预装?

是的。所有 GPU VPS 的 Ubuntu 镜像均预置了最新稳定版 CUDA toolkit、cuDNN 及 Nvidia 驱动。PyTorch、TensorFlow、JAX 以及 Hugging Face 全栈开箱即用。如需安装特定版本,也可重装为不含 CUDA 的干净 Ubuntu 镜像。

每张 GPU 有多少 VRAM?

单卡显存:RTX 6000 Pro 为 48 GB GDDR6 ECC,A100 为 80 GB HBM2e,RTX 5090 为 32 GB GDDR7,RTX 4090 为 24 GB GDDR6X。多卡方案累加计算,例如 4× A100 方案共有 320 GB VRAM。上方方案列表中单独列出了系统 RAM 容量。

能在 GPU VPS 上运行 Stable Diffusion / Llama / Whisper 吗?

是的。1× RTX 4090 方案是个不错的起点:VRAM 足够运行 SDXL 推理、Llama 3 70B(4-bit 量化)或 Whisper Large。如果需要运行未量化的 70B 模型或训练 LoRA,可以升级到 RTX 5090 或 A100。

Cloudzy 的价格与 AWS / Google Cloud / Lambda Labs 相比如何?

Generally cheaper for steady-state workloads, we don't price-discriminate by 'on-demand' vs 'spot' and we don't have egress fees. We won't quote competitor numbers (those change monthly). The 14-day money-back guarantee lets you A/B against your current provider with your own benchmarks.

有年付优惠吗?

是的,所有 GPU 套餐均可享受年付八五折优惠(低于普通 CPU 的五折,原因是 GPU 的硬件摊销成本更高)。不会自动续费,每个年度周期开始前我们会发送账单,你可以根据需要降配、升配或取消,不会产生任何意外费用。

网络这块怎么样?真的有 40 Gbps 吗?

是的。与我们旗舰版 Cloud VPS 相同的 40 Gbps 上行带宽,月度流量在套餐额度内不收取出站费用。对于大量数据的传输场景非常实用——以线速拉取一个 100 GB 的 Hugging Face 模型大约只需 30 秒。

我能进行多节点训练(多块 GPU VPS 协同运行)吗?

是的,同一区域内可以互通。同一数据中心的 VPS 共享本地网络,延迟低于毫秒级。目前我们不提供 InfiniBand 互连,通过标准以太网进行多节点训练足以应对微调和小规模分布式任务,但在大规模预训练方面无法与裸金属 HPC 相比。

GPU 方案提供退款保证吗?

14 天无条件退款,在一个账单周期内处理完毕。时间完全够用——跑 CUDA 吞吐量测试、执行一次完整的训练步骤,再判断 Cloudzy 是否适合你的工作负载。

别再为超大云厂商的价格买单了。
在专用 GPU 上进行训练。

选好配置,选好地区,点击部署。CUDA 已预装就绪。

无需信用卡 · 14 天退款保证 · 随时取消