50% de descuento todos los planes, tiempo limitado. Desde $2.48/mo

Alojamiento VPS GPU

RTX 6000 Pro. A100. RTX 5090.
Dedicado, no cortado.

Transferencia completa de GPU. RTX 6000 Pro, A100, RTX 5090, RTX 4090. CUDA, cuDNN, PyTorch preinstalados listos.
Conexión en red NVMe + 40 Gbps. Nube independiente desde 2008.

4.6 · 713 reseñas en Trustpilot

Desde $506.35/mo · 35% de descuento anual · No se requiere tarjeta de crédito

~ ssh raíz@gpu-train-001 conectado
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

VPS con GPU de un vistazo

Cloudzy vende planes GPU VPS con dedicado RTX 6000 Pro, Nvidia A100, RTX 5090, y RTX 4090 tarjetas en 1× a 4× configuraciones, comenzando en $506.35 per month. Cada plan se envía preinstalado con lo último CUDA, cuDNN, y controladores Nvidia, se ejecuta en AMD EPYC + DDR5 con Solo NVMe almacenamiento y 40 Gbps enlaces ascendentes y disposiciones en 60 segundos. Los GPU son de paso dedicado, no vGPU, No MIG, no compartido. Cloudzy ha operado de forma independiente desde 2008 y tiene una valoración de 4.6 / 5 by 713+ reseñas en Trustpilot.

Precio inicial
$506.35 / mo
Tipos de GPU
6000 Pro · A100 · 5090 · 4090
Configuraciones
1× a 4×
CUDA
Preinstalado
Descuento anual
35% de descuento
Devolución de dinero
14 dias

Por qué los equipos de ML eligen Cloudzy

GPU calcula el manera poco aburrida.

Las cuatro razones por las que los equipos pasan a Cloudzy desde las GPU de AWS/GCP/hiperescalador.

Transferencia de GPU dedicada

La tarjeta física completa es suya, sin cortes vGPU, sin particiones MIG, sin contiendas con otros inquilinos. Núcleos CUDA, VRAM, carriles PCIe, todos dedicados.

Imágenes listas para CUDA

Los controladores Nvidia más recientes, el kit de herramientas CUDA y cuDNN preinstalados en la imagen Ubuntu. PyTorch, TensorFlow, JAX, Hugging Face, pip install y ya estás entrenando.

NVMe + 40 Gbps

Almacenamiento NVMe puro para que la carga del conjunto de datos no sea el cuello de botella. La conexión en red de 40 Gbps significa que sacar un modelo Hugging Face de 100 GB termina en segundos, no en minutos.

Soporte humano 24/7

Ingenieros reales en el chat. Hemos ayudado a suficientes equipos a configurar el entrenamiento de múltiples GPU, depurar CUDA OOM y ajustar la inferencia de Llama para que las respuestas lleguen rápidamente.

alineación de GPU

Cuatro familias.
Nueve formas de escalar.

RTX 6000 Pro para inferencia y renderizado de nivel profesional con 48 GB ECC VRAM. A100 para capacitación y cargas de trabajo de VRAM grandes. RTX 5090 para la inferencia más reciente. RTX 4090 para inferencias rentables de hasta 70 B (4 bits). Planes Multi-GPU disponibles, elija lo que necesita su presupuesto de VRAM.

Transferencia completa de GPU, no dividida, no compartida
RTX 6000 Pro
48 GB GDDR6 ECC · Pro-grade
NVIDIA A100
80 GB HBM2e · ML training
RTX 5090
32 GB GDDR7 · Blackwell
RTX 4090
24 GB GDDR6X · cost-effective
1× a 4× GPU
Planes multi-GPU disponibles
CUDA preinstalado
PyTorch · TF · listo para JAX
NVMe puro
E/S rápida del conjunto de datos
40 Gbps uplink
Extraiga modelos de 100 GB en 30 segundos

Casos de uso

Las cargas de trabajo nuestras
los clientes realmente entrenan.

inferencia LLM

Sirva Llama 3, Mistral, DeepSeek o Qwen con vLLM o Text Generation Inference. RTX 4090 maneja 70B a 4 bits, RTX 5090 maneja 70B a 8 bits, A100 maneja sin cuantificar.

Difusión estable · generación de imágenes

Ejecute SDXL, Flux o puntos de control de difusión estable ajustados con ComfyUI o Automatic1111. RTX 4090 alcanza más de 30 imágenes/min en SDXL estándar de 1024×1024.

Entrenamiento de ML + ajuste

LoRA, QLoRA, ajuste completo. A100 es el punto óptimo para el ajuste fino no cuantificado de 7B-13B; 4× A100 maneja hasta 70B con fragmentación adecuada (FSDP/DeepSpeed).

Representación 3D · Licuadora

Cycles + OptiX en tarjetas RTX es el camino más rápido para los estudios de animación. La VRAM de 24 GB del RTX 4090 cubre la gran mayoría de escenas de producción de un solo cuadro.

Conductos de habla + visión

Whisper Large, Faster-Whisper, YOLO, segmenta cualquier cosa. Incluso el plan RTX 4090 ejecuta inferencias en tiempo real en estos modelos con un cómodo espacio para la cabeza.

Trabajos por lotes de larga duración

Generación de incrustación, canales de recuperación, preprocesamiento de conjuntos de datos. Pague por hora, ejecute el trabajo, tome una instantánea del resultado, destruya la caja, más barato que alquilar un AWS/GCP para la misma carga de trabajo.

80 GB
A100 VRAM
40 Gbps
Enlace ascendente
Listo para CUDA
Imagen
4 ×
GPU máximas
35%
Descanso anual
14 dias
Devolución de dinero

Precios

Planes de GPU destacados. Por horas o anualmente.

La facturación anual es actualmente 35% de descuento en cada plan de GPU.

Preguntas frecuentes. GPU VPS

Preguntas habituales, respuestas directas.

¿Qué GPU ofrece Cloudzy?

Cuatro familias: RTX 6000 Pro (1×, 48 GB GDDR6 ECC VRAM, profesional para inferencia y renderizado), Nvidia A100 (1× / 2× / 4×, para entrenamiento de ML, cargas de trabajo fp16/bf16 y 80 GB HBM2e por tarjeta), RTX 5090 (1× / 2×, arquitectura Blackwell más nueva, ideal para cargas de trabajo de inferencia y renderizado) y RTX 4090 (1× / 2× / 4×, rentable para difusión estable, inferencia LLM y renderizado 3D).

¿Las GPU son dedicadas o compartidas?

Dedicado. Cada plan es un paso de los GPU físicos completos, no un segmento, ni vGPU, ni MIG. Los núcleos CUDA, la VRAM, el ancho de banda PCIe, todo tuyo. Los planes Multi-GPU utilizan NVLink cuando el hardware físico lo admite (planes A100 multi-GPU).

¿CUDA está preinstalado?

Sí. Cada GPU VPS se envía con el último kit de herramientas CUDA estable, cuDNN y controladores Nvidia preinstalados en la imagen de Ubuntu. PyTorch, TensorFlow, JAX y la pila Hugging Face están disponibles de fábrica. Puede volver a crear la imagen en un Ubuntu limpio sin CUDA si desea instalar una versión específica.

¿Cuánta VRAM obtengo?

Por GPU: RTX 6000 Pro = 48 GB GDDR6 ECC, A100 = 80 GB HBM2e, RTX 5090 = 32 GB GDDR7, RTX 4090 = 24 GB GDDR6X. Los planes Multi-GPU agregan eso, un plan 4× A100 tiene 320 GB de VRAM total. La lista de planes anterior muestra la RAM del sistema por separado.

¿Puedo ejecutar Stable Diffusion / Llama / Whisper en un VPS con GPU?

Sí. El plan 1× RTX 4090 es un buen punto de partida: suficiente VRAM para inferencia SDXL, Llama 3 70B (cuantizado de 4 bits) o Whisper Large. Cambie a RTX 5090 o A100 si necesitas ejecutar modelos 70B no cuantificados o entrenar LoRA.

¿Cómo se compara el precio con AWS/Google Cloud/Lambda Labs?

Generalmente es más barato para cargas de trabajo de estado estacionario, no discriminamos precios entre "bajo demanda" y "al contado" y no cobramos tarifas de salida. No citaremos cifras de la competencia (esas cambian mensualmente). La garantía de devolución de dinero de 14 días le permite A/B con su proveedor actual con sus propios puntos de referencia.

¿Hay algún descuento anual?

Sí, 35 % de descuento en la facturación anual en cada plan GPU (menos que el 50 % en el CPU normal porque el hardware GPU cuesta más amortizar). Sin renovación automática; Recibirá una factura antes de cada ciclo anual para que pueda bajar, actualizar o cancelar sin cargos sorpresa.

¿Qué pasa con las redes? ¿Son realmente 40 Gbps?

Sí. Los mismos enlaces ascendentes de 40 Gbps que nuestro VPS en la nube insignia, sin tarifas de salida en transferencias mensuales hasta la asignación del plan. Útil para mover grandes conjuntos de datos dentro y fuera del nodo GPU, extraer un modelo Hugging Face de 100 GB tarda unos 30 segundos a velocidad de línea.

¿Puedo ejecutar entrenamiento de múltiples nodos (varios GPU VPS juntos)?

Sí dentro de una región. Los VPS en el mismo centro de datos comparten la red local con una latencia inferior a un milisegundo. Actualmente no ofrecemos interconexión InfiniBand, la capacitación de múltiples nodos a través de Ethernet estándar está bien para ajustes finos y trabajos distribuidos a pequeña escala, pero no es competitivo con HPC básico para una capacitación previa de gran tamaño.

¿Garantía de devolución de dinero en planes de GPU?

14 días, sin hacer preguntas. Reembolso dentro de un ciclo de facturación. Mucho tiempo para comparar el rendimiento de CUDA, ejecutar un paso de capacitación real y decidir si Cloudzy es la opción adecuada para su carga de trabajo.

Deje de pagar precios de hiperescala.
Entrene con GPU dedicadas.

Elige una tarjeta, elija una región, haga clic. CUDA ya está instalado.

Sin tarjeta de crédito · Garantía de reembolso en 14 días · Cancela cuando quieras