50% 할인 모든 플랜, 기간 한정. 시작 가격 $2.48/mo

GPU VPS 호스팅

RTX 6000 프로. A100. RTX 5090.
슬라이스가 아닌 전용입니다.

전체 GPU 패스스루. RTX 6000 Pro, A100, RTX 5090, RTX 4090. CUDA, cuDNN, PyTorch가 사전 설치되어 있습니다.
NVMe + 40Gbps 네트워킹. 2008년부터 독립 클라우드.

4.6 · 713 reviews on Trustpilot

시작 가격 $506.35/mo · 연간 35% 할인 · 신용카드 불필요

~ ssh root@gpu-train-001 연결됨
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

GPU VPS 개요

Cloudzy 전용 GPU VPS 계획 판매 RTX 6000 프로, 엔비디아 A100, RTX 5090, 그리고 RTX 4090 카드를 넣다 1× ~ 4× 구성, 시작 $506.35 per month. 각 계획에는 최신 버전이 사전 설치되어 배송됩니다. 쿠다, cuDNN, 및 Nvidia 드라이버는 AMD EPYC + DDR5에서 실행됩니다. NVMe 전용 스토리지와 40 Gbps 업링크 및 조항 60초. GPU는 vGPU가 아닌 전용 패스스루입니다. MIG가 아니고 공유되지 않습니다. Cloudzy는 이후 독립적으로 운영되었습니다. 2008 그리고 평가는 4.6 / 5 by 713+ reviewers Trustpilot에서.

시작 가격
$506.35 / mo
GPU 유형
6000 프로 · A100 · 5090 · 4090
구성
1× ~ 4×
쿠다
사전 설치됨
연간할인
35% 할인
환불
14일

ML 팀이 Cloudzy를 선택하는 이유

GPU는 지루하지 않은 방법.

팀이 AWS/GCP/하이퍼스케일러 GPU에서 Cloudzy로 이동하는 4가지 이유.

전용 GPU 패스스루

전체 물리적 카드는 귀하의 것입니다. vGPU 슬라이싱, MIG 파티션, 다른 테넌트와의 경합이 없습니다. CUDA 코어, VRAM, PCIe 레인, 모두 전용입니다.

CUDA 지원 이미지

최신 Nvidia 드라이버, CUDA 툴킷 및 cuDNN이 Ubuntu 이미지에 사전 구워졌습니다. PyTorch, TensorFlow, JAX, Hugging Face, pip 설치를 통해 교육을 진행하고 있습니다.

NVMe + 40Gbps

순수 NVMe 스토리지이므로 데이터 세트 로딩으로 인해 병목 현상이 발생하지 않습니다. 40Gbps 네트워킹은 100GB Hugging Face 모델을 몇 분이 아닌 몇 초 만에 완료한다는 의미입니다.

24/7 사람이 응대하는 지원

채팅 중인 실제 엔지니어. 우리는 다중 GPU 교육을 설정하고, CUDA OOM을 디버깅하고, Llama 추론을 조정하여 답변이 빠르게 돌아올 수 있도록 충분한 팀을 도왔습니다.

GPU 라인업

네 가족.
9가지 확장 방법

48GB ECC VRAM을 갖춘 전문가급 추론 및 렌더링을 위한 RTX 6000 Pro. 훈련 및 대용량 VRAM 워크로드를 위한 A100. 최신 추론을 위한 RTX 5090. 최대 70B(4비트)의 비용 효율적인 추론을 위한 RTX 4090. 다중 GPU 계획을 사용할 수 있습니다. VRAM 예산에 필요한 것을 선택하세요.

전체 GPU 패스스루(슬라이싱되지 않음, 공유되지 않음)
RTX 6000 프로
48 GB GDDR6 ECC · Pro-grade
엔비디아 A100
80 GB HBM2e · ML training
RTX 5090
32 GB GDDR7 · Blackwell
RTX 4090
24 GB GDDR6X · cost-effective
1× ~ 4× GPU
다중 GPU 계획 사용 가능
CUDA 사전 설치
PyTorch · TF · JAX 준비
순수 NVMe
빠른 데이터 세트 I/O
40 Gbps uplink
30초 안에 100GB 모델 가져오기

사용 사례

우리의 워크로드
고객이 실제로 훈련을 합니다.

LLM 추론

vLLM 또는 텍스트 생성 추론을 통해 Llama 3, Mistral, DeepSeek 또는 Qwen을 제공합니다. RTX 4090은 4비트에서 70B를 처리하고, RTX 5090은 8비트에서 70B를 처리하고, A100은 양자화되지 않은 처리를 처리합니다.

안정 확산 · 이미지 생성

ComfyUI 또는 Automatic1111을 사용하여 SDXL, Flux 또는 미세 조정된 Stable Diffusion 체크포인트를 실행하세요. RTX 4090은 표준 1024×1024 SDXL에서 분당 30개 이상의 이미지를 처리합니다.

ML 학습 + 미세 조정

LoRA, QLoRA, 전체 미세 조정. A100은 7B-13B 비양자화 미세 조정을 위한 최적의 지점입니다. 4× A100은 적절한 샤딩(FSDP / DeepSpeed)을 통해 최대 70B를 처리합니다.

3D 렌더링 · 블렌더

RTX 카드의 Cycles + OptiX는 애니메이션 스튜디오를 위한 가장 빠른 경로입니다. RTX 4090의 24GB VRAM은 대부분의 단일 프레임 제작 장면을 포괄합니다.

음성 + 비전 파이프라인

큰 속삭임, 더 빠른 속삭임, YOLO, 모든 세그먼트. RTX 4090 계획조차도 편안한 헤드룸을 통해 이러한 모델에 대해 실시간 추론을 실행합니다.

장기 실행 일괄 작업

임베딩 생성, 검색 파이프라인, 데이터 세트 전처리. 동일한 워크로드에 대해 AWS/GCP에서 임대하는 것보다 시간당 비용을 지불하고, 작업을 실행하고, 출력의 스냅샷을 찍고, 상자를 파괴합니다.

80 GB
A100 VRAM
40 Gbps
업링크
CUDA 지원
영상
4 ×
최대 GPU
35%
연간 할인
14일
환불

가격

주요 GPU 계획. 시간별 또는 연간.

연간 청구는 현재 35% 할인 모든 GPU 계획에서.

자주 묻는 질문. GPU VPS

자주 묻는 질문, 명확한 답변.

Cloudzy는 어떤 GPU를 제공합니까?

4개 제품군: RTX 6000 Pro(1×, 48GB GDDR6 ECC VRAM, 추론 및 렌더링을 위한 전문가급), Nvidia A100(1× / 2× / 4×, ML 교육용, fp16/bf16 워크로드 및 카드당 80GB HBM2e), RTX 5090(1× / 2×, 최신 Blackwell 아키텍처, 추론 워크로드 및 렌더링에 이상적) 및 RTX 4090(1× / 2× / 4×, Stable Diffusion, LLM 추론 및 3D 렌더링에 비용 효율적)입니다.

GPU는 전용인가요, 공유인가요?

헌신적인. 각 계획은 슬라이스, vGPU, MIG가 아닌 전체 물리적 GPU의 패스스루입니다. CUDA 코어, VRAM, PCIe 대역폭, 모두 당신의 것입니다. 다중 GPU 계획은 물리적 하드웨어가 지원하는 경우 NVLink를 사용합니다(A100 다중 GPU 계획).

CUDA가 사전 설치되어 있나요?

예. 모든 GPU VPS에는 안정적인 최신 CUDA 툴킷, cuDNN 및 Ubuntu 이미지에 사전 구운 Nvidia 드라이버가 함께 제공됩니다. PyTorch, TensorFlow, JAX 및 Hugging Face 스택이 즉시 실행됩니다. 특정 버전을 설치하려는 경우 CUDA 없이 깨끗한 Ubuntu로 이미지를 다시 만들 수 있습니다.

VRAM은 얼마나 되나요?

GPU당: RTX 6000 Pro = 48GB GDDR6 ECC, A100 = 80GB HBM2e, RTX 5090 = 32GB GDDR7, RTX 4090 = 24GB GDDR6X. 다중 GPU 계획은 4× A100 계획의 총 VRAM이 320GB임을 합산합니다. 위의 계획 목록에는 시스템 RAM이 별도로 표시됩니다.

GPU VPS에서 Stable Diffusion/Llama/Whisper를 실행할 수 있나요?

예. 1× RTX 4090 계획은 좋은 출발점이 됩니다. SDXL 추론, Llama 3 70B(4비트 양자화) 또는 Whisper Large에 충분한 VRAM이 필요합니다. 양자화되지 않은 70B 모델을 실행하거나 LoRA를 훈련해야 하는 경우 RTX 5090 또는 A100을 선택하세요.

가격은 AWS/Google Cloud/Lambda Labs와 비교하면 어떻습니까?

일반적으로 안정적인 상태의 워크로드에 대해 더 저렴하며 '온디맨드'와 '스팟'으로 가격을 차별하지 않으며 송신 수수료도 없습니다. 우리는 경쟁사 번호를 인용하지 않습니다(매월 변경됨). 14일 환불 보장을 통해 자체 벤치마크를 통해 현재 제공업체에 대해 A/B를 수행할 수 있습니다.

연간 할인이 있나요?

예, 모든 GPU 플랜에서 연간 청구액이 35% 할인됩니다(GPU 하드웨어 상각 비용이 더 높기 때문에 일반 CPU의 50%보다 낮습니다). 자동 갱신이 없습니다. 매 연간 주기 전에 송장을 받게 되므로 갑작스러운 비용 없이 다운그레이드, 업그레이드 또는 취소할 수 있습니다.

네트워킹은 어떻습니까? 정말 40Gbps인가요?

예. 당사의 주력 Cloud VPS와 동일한 40Gbps 업링크를 제공하며, 플랜 허용 한도까지 월간 전송에 대한 송신 수수료가 없습니다. GPU 노드 안팎으로 대규모 데이터 세트를 이동하는 데 유용하며, 100GB Hugging Face 모델을 가져오는 데 회선 속도로 약 30초가 걸립니다.

다중 노드 훈련(여러 GPU VPS를 함께)을 실행할 수 있습니까?

Yes within a region. 동일한 데이터 센터의 VPS는 밀리초 미만의 대기 시간으로 로컬 네트워크를 공유합니다. 우리는 현재 InfiniBand 상호 연결을 제공하지 않습니다. 표준 이더넷을 통한 다중 노드 교육은 미세 조정 및 소규모 분산 작업에는 적합하지만 대규모 사전 교육에는 베어메탈 HPC와 경쟁할 수 없습니다.

GPU 계획에 대한 환불 보장?

14일, 질문이 없습니다. 한 번의 결제 주기 내에 환불하세요. CUDA 처리량을 벤치마킹하고, 실제 훈련 단계를 실행하고, Cloudzy가 귀하의 워크로드에 적합한지 결정할 충분한 시간입니다.

하이퍼스케일러 가격 지불을 중단하세요.
전용 GPU에서 훈련하세요.

카드를 선택하고, 지역을 선택하고, 클릭하세요. CUDA가 이미 설치되어 있습니다.

신용카드 불필요 · 14일 환불 보장 · 언제든 취소 가능