50% de desconto todos os planos, tempo limitado. A partir de $2.48/mo

Hospedagem GPU VPS

RTX 6000 Pro. A100. RTX 5090.
Dedicado, não fatiado.

Passagem GPU completa. RTX 6000 Pro, A100, RTX 5090, RTX 4090. CUDA pré-instalado, cuDNN, pronto para PyTorch.
Rede NVMe + 40 Gbps. Nuvem independente desde 2008.

4.6 · 713 reviews on Trustpilot

A partir de $506.35/mo · 35% de desconto anual · Não é necessário cartão de crédito

~ssh root@gpu-train-001 conectado
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

GPU VPS em resumo

Cloudzy vende planos GPU VPS com dedicado RTX 6000 Pro, Nvidia A100, RTX 5090, e RTX4090 cartões em 1× a 4× configurações, começando em $506.35 per month. Cada plano vem pré-instalado com o mais recente CUDA, cuDNN, e drivers Nvidia, roda em AMD EPYC + DDR5 com Somente NVMe armazenamento e 40 Gbps uplinks e disposições em 60 segundos. GPUs são passagem dedicada, não vGPU, não MIG, não compartilhado. Cloudzy opera de forma independente desde 2008 e está classificada com 4.6 / 5 by 713+ reviewers no Trustpilot.

Preço inicial
$506.35 / mo
Tipos de GPU
6000 Pró · A100 · 5090 · 4090
Configurações
1× a 4×
CUDA
Pré-instalado
Desconto anual
35% de desconto
Devolução do dinheiro
14 dias

Por que as equipes de ML escolhem Cloudzy

GPU calcula o maneira chata.

Os quatro motivos pelos quais as equipes migraram de GPUs AWS/GCP/hyperscaler para Cloudzy.

Passagem de GPU dedicada

O cartão físico completo é seu, sem fatiamento vGPU, sem partições MIG, sem contenção com outros locatários. Núcleos CUDA, VRAM, pistas PCIe, todos dedicados.

Imagens prontas para CUDA

Drivers Nvidia mais recentes, kit de ferramentas CUDA e cuDNN pré-incorporados na imagem Ubuntu. PyTorch, TensorFlow, JAX, Hugging Face, pip install e você está treinando.

NVMe + 40 Gbps

Armazenamento NVMe puro para que o carregamento do conjunto de dados não seja o gargalo. Rede de 40 Gbps significa que o modelo Hugging Face de 100 GB termina em segundos, não em minutos.

Suporte humano 24/7

Engenheiros reais no chat. Ajudamos equipes suficientes a configurar treinamento multi-GPU, depurar OOMs CUDA e ajustar a inferência do Llama para que as respostas voltem rapidamente.

Linha de GPU

Quatro famílias.
Nove maneiras de escalar.

RTX 6000 Pro para inferência e renderização de nível profissional com 48 GB ECC VRAM. A100 para treinamento e cargas de trabalho com grandes VRAM. RTX 5090 para a inferência mais recente. RTX 4090 para inferência econômica de até 70B (4 bits). Planos Multi-GPU disponíveis, escolha o que seu orçamento de VRAM precisa.

Passagem GPU completa, não fatiada, não compartilhada
RTX 6000 Pró
48 GB GDDR6 ECC · Pro-grade
Nvidia A100
80 GB HBM2e · ML training
RTX 5090
32 GB GDDR7 · Blackwell
RTX4090
24 GB GDDR6X · cost-effective
1× a 4× GPU
Planos multi-GPU disponíveis
CUDA pré-instalado
PyTorch · TF · Pronto para JAX
NVMe puro
E/S rápida de conjunto de dados
40 Gbps uplink
Obtenha modelos de 100 GB em 30 segundos

Casos de uso

As cargas de trabalho nossas
os clientes realmente treinam.

Inferência LLM

Sirva Llama 3, Mistral, DeepSeek ou Qwen com vLLM ou inferência de geração de texto. RTX 4090 lida com 70B em 4 bits, RTX 5090 lida com 70B em 8 bits, A100 lida com não quantizado.

Difusão estável · geração de imagem

Execute SDXL, Flux ou pontos de verificação de difusão estável ajustados com ComfyUI ou Automatic1111. RTX 4090 atinge mais de 30 imagens/min no padrão 1024×1024 SDXL.

Treinamento de ML + ajuste fino

LoRA, QLoRA, ajuste fino completo. A100 é o ponto ideal para o ajuste fino não quantizado de 7B-13B; 4× A100 suporta até 70B com fragmentação adequada (FSDP/DeepSpeed).

Renderização 3D · Liquidificador

Cycles + OptiX em placas RTX é o caminho mais rápido para estúdios de animação. A VRAM de 24 GB no RTX 4090 cobre a grande maioria das cenas de produção de quadro único.

Pipelines de fala + visão

Sussurro grande, sussurro mais rápido, YOLO, segmento qualquer coisa. Até mesmo o plano RTX 4090 executa inferência em tempo real nesses modelos com espaço confortável.

Trabalhos em lote de longa duração

Incorporação de geração, pipelines de recuperação, pré-processamento de conjunto de dados. Pague por hora, execute o trabalho, capture instantâneo da saída, destrua a caixa, mais barato do que alugar em AWS/GCP para a mesma carga de trabalho.

80 GB
A100 VRAM
40 Gbps
Ligação ascendente
Pronto para CUDA
Imagem
4 ×
Máximo de GPUs
35%
Desconto anual
14 dias
Devolução do dinheiro

Preços

Planos de GPU em destaque. Por hora ou anual.

O faturamento anual é atualmente 35% de desconto em todos os planos de GPU.

PERGUNTAS FREQUENTES. VPS GPU

Perguntas comuns, respostas diretas.

Quais GPUs o Cloudzy oferece?

Quatro famílias: RTX 6000 Pro (1×, 48 GB GDDR6 ECC VRAM, nível profissional para inferência e renderização), Nvidia A100 (1× / 2× / 4×, para treinamento de ML, cargas de trabalho fp16/bf16 e 80 GB HBM2e por placa), RTX 5090 (1× / 2×, arquitetura Blackwell mais recente, ideal para cargas de trabalho de inferência e renderização) e RTX 4090 (1× / 2× / 4×, econômico para difusão estável, inferência LLM e renderização 3D).

As GPUs são dedicadas ou compartilhadas?

Dedicado. Cada plano é uma passagem do(s) GPU(s) físico(s) completo(s), não uma fatia, não vGPU, não MIG. Os núcleos CUDA, a VRAM, a largura de banda PCIe, tudo seu. Os planos Multi-GPU usam NVLink onde o hardware físico suporta (planos A100 multi-GPU).

O CUDA está pré-instalado?

Sim. Cada GPU VPS vem com o mais recente kit de ferramentas CUDA estável, cuDNN e drivers Nvidia pré-incorporados na imagem do Ubuntu. PyTorch, TensorFlow, JAX e a pilha Hugging Face saem da caixa. Você pode recriar a imagem para um Ubuntu limpo sem CUDA se quiser instalar uma versão específica.

Quanto VRAM eu recebo?

Por GPU: RTX 6000 Pro = 48 GB GDDR6 ECC, A100 = 80 GB HBM2e, RTX 5090 = 32 GB GDDR7, RTX 4090 = 24 GB GDDR6X. Os planos Multi-GPU agregam isso, um plano 4× A100 tem 320 GB de VRAM total. A lista de planos acima mostra a RAM do sistema separadamente.

Posso executar Stable Diffusion / Llama / Whisper em um GPU VPS?

Sim. O plano 1× RTX 4090 é um bom ponto de partida: VRAM suficiente para inferência SDXL, Llama 3 70B (quantizado em 4 bits) ou Whisper Large. Vá para RTX 5090 ou A100 se precisar executar modelos 70B não quantizados ou treinar LoRAs.

Como o preço se compara ao AWS/Google Cloud/Lambda Labs?

Geralmente mais barato para cargas de trabalho em estado estacionário, não discriminamos preços entre “sob demanda” e “spot” e não temos taxas de saída. Não citaremos números de concorrentes (eles mudam mensalmente). A garantia de devolução do dinheiro em 14 dias permite que você compare seu fornecedor atual com seus próprios benchmarks.

Existe desconto anual?

Sim, 35% de desconto no faturamento anual em cada plano GPU (inferior aos 50% no CPU normal porque o hardware GPU custa mais para amortizar). Sem renovação automática; você receberá uma fatura antes de cada ciclo anual para poder fazer downgrade, upgrade ou cancelar sem cobranças inesperadas.

E quanto a redes? É realmente 40 Gbps?

Sim. Os mesmos uplinks de 40 Gbps do nosso Cloud VPS principal, sem taxas de saída em transferências mensais até o limite do plano. Útil para mover grandes conjuntos de dados para dentro e para fora do nó GPU, extrair um modelo Hugging Face de 100 GB leva cerca de 30 segundos na taxa de linha.

Posso executar treinamento de vários nós (vários GPU VPS juntos)?

Sim, dentro de uma região. VPS no mesmo datacenter compartilham a rede local com latência inferior a um milissegundo. Atualmente não oferecemos interconexão InfiniBand, o treinamento de vários nós por Ethernet padrão é adequado para ajustes finos e trabalhos distribuídos em pequena escala, mas não é competitivo com HPC bare-metal para grandes pré-treinamento.

Garantia de devolução do dinheiro em planos de GPU?

14 dias, sem perguntas. Reembolso dentro de um ciclo de faturamento. Tempo de sobra para avaliar o rendimento do CUDA, executar uma etapa de treinamento real e decidir se o Cloudzy é adequado para sua carga de trabalho.

Pare de pagar preços hiperescaladores.
Treine em GPUs dedicadas.

Escolha uma carta, escolha uma região, clique. CUDA já está instalado.

Sem cartão de crédito · garantia de reembolso em 14 dias · cancele quando quiser