50% 折扣 所有计划,时间有限。开始于 $2.48/mo

ChatGPT VPS 托管

您自己的人工智能服务器,
你自己的规则。

自托管开放权重法学硕士和人工智能 API AMD 霄龙NVMe 贮存。
独立云自 2008 — 没有供应商锁定,没有使用上限。
值得信赖 122,000+ 用户·来自 $2.48/mo.

4.6 · Trustpilot 上有 684 条评论

开始于 $2.48/mo · 50% 折扣 · 无需信用卡

~ ssh root@ai-001 已连接
root@ai-001:~#curl -fsSL https://ollama.ai/install.sh |嘘
正在安装奥拉玛...
奥拉玛安装成功。
root@ai-001:~# llama 拉 llama3
拉模型 llama3...100%
root@ai-001:~# ollama 服务 &
在 0.0.0.0:11434 上收听
root@ai-001:~# _

ChatGPT VPS 一览

Cloudzy 优惠 聊天GPT VPS 托管自托管法学硕士和人工智能推理 12个地区,开始于 $2.48/mo。每个计划都在进行 AMD 霄龙DDR5 记忆, NVMe 存储,以及 40 Gbps 上行链路。安装 Ollama、llama.cpp、vLLM 或您自己的推理堆栈 — 完全 root 访问权限,无 API 速率限制。规定于 60秒。独立以来 2008,额定 4.6/5 by 679+ 评论者 在 Trustpilot 上。

起始价
$2.48 / month
中央处理器
AMD EPYC(霄龙)·DDR5
配置
60秒
地区
全球12个
退款
14天
成立
2008

为什么建筑商选择 Cloudzy

一个精通技术的人 最喜欢的。

买家实际比较我们的四件事——做得正确。

高规格基础设施

最新一代 AMD EPYC(霄龙)、纯 NVMe 存储、DDR5 内存、40 Gbps 上行链路。每个计划层的单线程领导。

无风险试用

每个计划均提供 14 天退款保证。没有提出任何问题。没有安装费。随时从仪表板取消。

99.95% 正常运行时间 SLA

跨 12 个区域的自动监控。我们的最后 30 天 SLA 在 status.cloudzy.com 上公开跟踪 — 没有隐藏。

24/7 人工支持

实时聊天和票证回复通常不到 5 分钟。工程师,而不是剧本读者。中值分辨率低于 1 小时。

您可以自行托管的人工智能工具

开放式重量模型, 您的基础设施。

运行任何开放权重模型或人工智能框架。完全根意味着您选择堆栈、模型和服务层。不需要第三方的 API 密钥。

奥拉马
一键LLM服务
llama.cpp
CPU 优化推理
法学硕士
高通量服务
打开网页界面
LLM 的聊天界面
浪链
编排框架
抱脸
模型中心+变形金刚

使用案例

建设者为何选择
Cloudzy 的 ChatGPT VPS。

私人 ChatGPT 替代方案

使用 Open WebUI 在您自己的服务器上运行 Llama 3、Mistral 或 Phi。聊天界面、对话历史记录,没有数据离开您的 VPS。

您的应用程序的 API 后端

在您自己的 REST API 背后为法学硕士提供服务。没有按代币计费,没有费率限制。与您的 SaaS、机器人或内部工具集成。

微调和实验

上传数据集、微调 LoRA 适配器、运行评估。持久 NVMe 存储意味着您的检查点可以在重新启动后继续存在。

RAG管道服务器

将本地 LLM 与矢量 DB(Chroma、Qdrant、Weaviate)相结合,以实现检索增强生成。一切都在一个盒子里。

多型号对比

并排运行 Llama、Mistral 和 Phi。在投入生产之前先比较输出、延迟和质量。

AI编码助手

自托管 Code Llama 或 DeepSeek Coder 并通过本地 API 将其连接到您的 IDE。自动完成和聊天,无需向外部发送代码。

60s
配置
40 Gbps
上行链路
仅 NVMe
贮存
12
地区
99.95%
正常运行时间服务等级协议
14天
退款

全球网络

12个地区。四大洲。
一键点击即可。

在物理条件允许的情况下,将您的 ChatGPT VPS 放置在距离用户尽可能近的位置。北美和欧洲的 P50 延迟中位数低于 10 毫秒。

us-utah-1us-dal-1us-lax-1us-nyc-1us-mia-1eu-ams-1eu-lon-1eu-fra-1eu-zrh-1me-dxb-1ap-sgp-1ap-tyo-1

定价

按使用量付费。 就是这样。

每小时、每月或每年。无出口费。没有承诺。现在 50% 折扣 所有计划。

512 MB DDR5

微小模型·测试

$2.48 /月
$4.95/mo −50%
立即部署
14 天退款
  • 1 vCPU @ EPYC
  • 20 GB NVMe
  • 1 TB · 40 Gbps
  • 专用 IPv4 + IPv6
  • 根SSH·KVM
2 GB DDR5

小型法学硕士 · 7B 参数

$7.475 /月
$14.95/mo −50%
立即部署
14 天退款
  • 1 vCPU @ EPYC
  • 60 GB NVMe
  • 3 TB · 40 Gbps
  • 专用 IPv4 + IPv6
  • 根SSH·KVM
8 GB DDR5

13B+ 型号 · RAG 堆栈

$26.475 /月
$52.95/mo −50%
立即部署
14 天退款
  • 4 vCPU @ EPYC
  • 240 GB NVMe
  • 7 TB · 40 Gbps
  • 专用 IPv4 + IPv6
  • 根SSH·KVM

常见问题解答 — ChatGPT VPS

常见问题, 直接的答案。

我可以在自己的 VPS 上运行 ChatGPT 吗?

ChatGPT 本身是 OpenAI 的专有服务,但您可以在 Cloudzy VPS 上自行托管 Llama 3、Mistral、Phi 或 DeepSeek 等开放权重替代方案。 Ollama 和 Open WebUI 等工具为您提供类似的聊天体验,并且具有完全的隐私。

LLM 推理需要多少 RAM?

这取决于模型尺寸。 7B 参数模型(如 Llama 3 8B 量化)在 4-8 GB RAM 中运行。 13B 型号需要 8-16 GB。较大的 70B 型号需要 32-64 GB。从小型型号的 4 GB 计划开始,然后扩大规模。

运行 LLM 是否需要 GPU?

不会。llama.cpp 和 Ollama 等工具针对 AMD EPYC 上的 CPU 推理进行了优化。与 GPU 相比,每秒获得的令牌速度较慢,但​​对于个人使用、小型团队或异步批处理作业,CPU 推理工作正常,并且成本只是 GPU 托管的一小部分。

我可以同时托管多个模型吗?

是的。有了足够的 RAM,您可以通过 Ollama 或 vLLM 运行多个模型并在它们之间切换。每个模型按需加载到内存中。 16 GB 套餐可以轻松地同时服务 2-3 个小型模型。

数据隐私呢?

一切都保留在您的 VPS 上。不会将任何数据发送到第三方 API。您可以控制模型、数据和网络。这是相对于托管人工智能服务的主要优势——您的提示和响应永远不会离开您的服务器。

如何安装奥拉玛?

一条命令:curl -fsSL https://ollama.ai/install.sh |嘘。然后用 llama pull llama3 拉一个模型,开始聊天。在新的 VPS 上,整个过程只需不到 5 分钟。

我可以将我的 LLM 作为 API 公开吗?

是的。默认情况下,Ollama 在端口 11434 上提供与 OpenAI 兼容的 API。 vLLM 还公开了一个与 OpenAI 兼容的端点。将您的应用程序、机器人或前端指向您的 VPS IP 和端口。

正常运行时间保证是什么?

Cloudzy 在所有计划中提供 99.95% 的正常运行时间 SLA。您的 AI 服务器通过冗余网络路径和 40 Gbps 连接全天候保持在线。

我可以在此 VPS 上微调模型吗?

CPU 微调是可能的,但速度很慢。对于小型模型 (7B) 的 LoRA/QLoRA 微调,高 RAM CPU 计划适用于实验。对于大型模型的生产微调,GPU 实例更实用。

退款政策是什么?

14 天退款保证,无条件退款。测试您的人工智能设置,基准推理速度,然后决定。从仪表板或通过支持全额退款。

当你准备好时。
60秒内AI服务器。

无需信用卡 · 14 天退款保证 · 随时取消