50%オフ 全プラン対象、期間限定。月額 $2.48/mo

GPU VPS ホスティング

RTX6000プロ。 A100。 RTX5090。
スライスではなく、専用です。

完全な GPU パススルー。 RTX 6000 Pro、A100、RTX 5090、RTX 4090。プリインストールされた CUDA、cuDNN、PyTorch に対応。
NVMe + 40 Gbps ネットワーク。 2008 年から独立したクラウド。

4.6 · 713 reviews on Trustpilot

開始価格 $506.35/mo · 年間 35% オフ · クレジット カードは必要ありません

~ ssh root@gpu-train-001 接続されています
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

GPU VPS の概要

Cloudzy 専用のGPU VPSプランを販売 RTX 6000 プロ、NVIDIA A100、RTX 5090、 そして RTX4090 中のカード 1×~4× から始まる構成 $506.35 per month。 各プランには最新のバージョンがプリインストールされて出荷されます。 CUDA、cuDNN、 および Nvidia ドライバー、AMD EPYC + DDR5 で動作 NVMeのみ ストレージと 40 Gbps アップリンク、およびプロビジョニング 60秒。 GPU は vGPU ではなく専用パススルーです。 MIG ではなく、共有でもありません。 Cloudzy は、以来独立して動作しています。 2008 評価は 4.6 / 5 by 713+ reviewers Trustpilotで。

開始価格
$506.35 / mo
GPUの種類
6000プロ・A100・5090・4090
構成
1×~4×
CUDA
プリインストール済み
年間割引
35%オフ
返金
14日

ML チームが Cloudzy を選ぶ理由

GPU が計算する 退屈しない方法。

チームが AWS / GCP / ハイパースケーラー GPU から Cloudzy に移行する 4 つの理由。

専用GPUパススルー

完全な物理カードはあなたのものであり、vGPU スライス、MIG パーティション、他のテナントとの競合はありません。 CUDA コア、VRAM、PCIe レーンはすべて専用です。

CUDA対応イメージ

最新の Nvidia ドライバー、CUDA ツールキット、および cuDNN が Ubuntu イメージにプリベイクされています。 PyTorch、TensorFlow、JAX、Hugging Face、pip をインストールすればトレーニングが完了します。

NVMe+40Gbps

純粋な NVMe ストレージなので、データセットの読み込みがボトルネックになりません。 40 Gbps ネットワークとは、100 GB の Hugging Face モデルのプルが数分ではなく数秒で完了することを意味します。

24時間365日の有人サポート

チャット上の本物のエンジニア。私たちは、十分なチームがマルチ GPU トレーニングをセットアップし、CUDA OOM をデバッグし、Llama 推論を調整して、答えがすぐに返されるように支援してきました。

GPUラインナップ

家族4人。
スケーリングする 9 つの方法。

RTX 6000 Pro は、48 GB ECC VRAM を備えたプログレードの推論とレンダリングを実現します。 トレーニングおよび大規模な VRAM ワークロード用の A100。最新の推論の場合は RTX 5090。 RTX 4090 は、最大 70B (4 ビット) のコスト効率の高い推論を実現します。マルチ GPU プランが利用可能で、VRAM 予算に応じて選択してください。

フル GPU パススルー、スライス、共有なし
RTX6000プロ
48 GB GDDR6 ECC · Pro-grade
Nvidia A100
80 GB HBM2e · ML training
RTX5090
32 GB GDDR7 · Blackwell
RTX4090
24 GB GDDR6X · cost-effective
1× ~ 4× GPU
マルチGPUプランが利用可能
CUDAがプリインストールされています
PyTorch・TF・JAX対応
純粋なNVMe
高速データセット I/O
40 Gbps uplink
100 GB モデルを 30 秒でプル

ユースケース

私たちのワークロードは、
お客様が実際にトレーニングを行っています。

LLM 推論

vLLM またはテキスト生成推論を使用して、Llama 3、Mistral、DeepSeek、または Qwen を提供します。 RTX 4090 は 4 ビットで 70B を処理し、RTX 5090 は 8 ビットで 70B を処理し、A100 は非量子化を処理します。

安定拡散・画像生成

ComfyUI または Automatic1111 を使用して SDXL、Flux、または微調整された Stable Diffusion チェックポイントを実行します。 RTX 4090 は、標準 1024×1024 SDXL で 30 以上の画像/分を達成します。

ML トレーニング + 微調整

LoRA、QLoRA、完全な微調整。 A100 は、7B ~ 13B の量子化されていない微調整のスイート スポットです。 4× A100 は、適切なシャーディング (FSDP / DeepSpeed) で最大 70B を処理します。

3Dレンダリング・Blender

RTX カード上の Cycles + OptiX は、アニメーション スタジオにとって最速のパスです。 RTX 4090 の 24 GB VRAM は、シングルフレーム制作シーンの大部分をカバーします。

音声 + 視覚パイプライン

大きくささやき、より速くささやき、YOLO、あらゆるものをセグメント化します。 RTX 4090 プランでも、快適なヘッドルームを備えたこれらのモデルでリアルタイム推論を実行します。

長時間実行されるバッチ ジョブ

埋め込み生成、取得パイプライン、データセットの前処理。時間単位で支払い、ジョブを実行し、出力のスナップショットを作成し、ボックスを破棄すると、同じワークロードに対して AWS/GCP でレンタルするよりも安くなります。

80 GB
A100 VRAM
40 Gbps
アップリンク
CUDA対応
画像
4 ×
最大GPU数
35%
年次休暇
14日
返金

価格設定

注目の GPU プラン。 時間ごとまたは毎年。

現在、年間請求は 35%オフ すべての GPU プランで。

よくある質問。 GPU VPS

よくある質問、 明快な回答。

Cloudzy はどの GPU を提供していますか?

4 ファミリ: RTX 6000 Pro (1x、48 GB GDDR6 ECC VRAM、推論およびレンダリング用のプログレード)、Nvidia A100 (1x / 2x / 4x、ML トレーニング、fp16/bf16 ワークロード、カードあたり 80 GB HBM2e 用)、RTX 5090 (1x / 2x、新しい Blackwellアーキテクチャ、推論ワークロードとレンダリングに最適)、および RTX 4090 (1x / 2x / 4x、安定した拡散、LLM 推論、および 3D レンダリングのコスト効率が高い)。

GPU は専用ですか、それとも共有ですか?

ひたむきな。各プランは、スライス、vGPU、MIG ではなく、完全な物理 GPU のパススルーです。 CUDA コア、VRAM、PCIe 帯域幅はすべてあなたのものです。マルチ GPU プランは、物理ハードウェアがサポートする NVLink を使用します (A100 マルチ GPU プラン)。

CUDAはプリインストールされていますか?

はい。すべての GPU VPS には、最新の安定した CUDA ツールキット、cuDNN、および Nvidia ドライバーが Ubuntu イメージに事前に組み込まれて出荷されます。 PyTorch、TensorFlow、JAX、および Hugging Face スタックはすぐに使用できます。特定のバージョンをインストールする場合は、CUDA を使用せずにクリーンな Ubuntu に再イメージ化できます。

どれくらいの VRAM を取得できますか?

GPU ごと: RTX 6000 Pro = 48 GB GDDR6 ECC、A100 = 80 GB HBM2e、RTX 5090 = 32 GB GDDR7、RTX 4090 = 24 GB GDDR6X。マルチ GPU プランを合計すると、4x A100 プランには合計 320 GB の VRAM が搭載されます。上記のプラン リストは、システム RAM を個別に示しています。

GPU VPS で Stable Diffusion / Llama / Whisper を実行できますか?

はい。 1x RTX 4090 プランは良い出発点です。SDXL 推論、Llama 3 70B (4 ビット量子化)、または Whisper Large に十分な VRAM が必要です。量子化されていない 70B モデルを実行するか、LoRA をトレーニングする必要がある場合は、RTX 5090 または A100 にバンプします。

料金は AWS / Google Cloud / Lambda Labs と比較してどうですか?

一般に定常状態のワークロードの方が安く、「オンデマンド」と「スポット」による価格差別はなく、下り料金もありません。競合他社の数については言及しません (数値は毎月変わります)。 14 日間の返金保証により、独自のベンチマークを使用して現在のプロバイダーに対して A/B を行うことができます。

年間割引はありますか?

はい、すべての GPU プランで年間請求が 35% 割引になります (GPU ハードウェアの償却コストが高くなるため、通常の CPU の 50% よりも低くなります)。自動更新はありません。毎年のサイクルの前に請求書が届くので、予期せぬ料金がかかることなくダウングレード、アップグレード、またはキャンセルできます。

ネットワーキングについてはどうでしょうか?本当に40Gbpsなのでしょうか?

はい。当社の主力クラウド VPS と同じ 40 Gbps アップリンク。プランの許容量まで毎月の転送に下り料金がかかりません。大規模なデータセットを GPU ノードに出入りする場合に便利で、100 GB の Hugging Face モデルのプルにはライン レートで約 30 秒かかります。

マルチノード トレーニング (複数の GPU VPS を一緒に) を実行できますか?

地域内であれば可能です。同じデータセンター内の VPS は、ミリ秒未満の遅延でローカル ネットワークを共有します。現在、InfiniBand 相互接続は提供していません。標準イーサネットを介したマルチノード トレーニングは、微調整や小規模な分散ジョブには適していますが、大規模な事前トレーニングではベアメタル HPC と競合できません。

GPU プランの返金保証はありますか?

14 日間、質問は受け付けません。 1 請求サイクル以内に返金します。 CUDA スループットのベンチマークを行い、実際のトレーニング ステップを実行し、Cloudzy がワークロードに適しているかどうかを判断するのに十分な時間があります。

ハイパースケーラーの価格を支払うのはやめましょう。
専用の GPU でトレーニングします。

カードを選択し、地域を選択してクリックします。 CUDAはすでにインストールされています。

クレジットカード不要 · 14日間返金保証 · いつでもキャンセル可