奥拉玛VPS主机服务

奥拉玛VPS主机服务

奥拉马,预装版与私有版

您的专属Ollama服务器已预装于Ubuntu 24.04系统,并搭载OpenWebUI界面。利用预装模型快速测试,按需获取新模型,同时通过最高40 Gbps的NVMe接口,对端口、服务及快照实现完全根权限控制。

优秀
TrustPilot 星级评分
500+条评论

There’s a reason 121,000+ developers & businesses choose us.

100% DDoS防护
0天

退款保证

全天候支持
0/0

在线支持

网络速度
0Gbps

网络速度

网络正常运行时间
0%

网络正常运行时间

定价

透明定价。无隐藏费用

选择我们的理由(绝对不止)一个。0+开发者与企业选择我们。

  • 按年支付(享40%折扣)
  • 按月支付(立减25)
  • 按小时付费(享8折优惠)
  • 默认
奥拉玛虚拟专用服务器

什么是Ollama VPS?

Ollama 是一款轻量级运行时环境,支持通过简单命令和 HTTP API 本地运行大型语言模型。在Cloudzy 平台上,它基于Ubuntu 24.04 LTS系统预装 OpenWebUI,提供简洁的浏览器聊天界面。您将获得完整 root 权限及 llama3.2、deepseek r1 等入门模型,可立即开始实验并通过 ollama pull 命令添加更多模型。 通过8080端口访问网页应用,11434端口调用Ollama API实现工具与代码集成。资源配置精准适配私有测试或小团队需求:配备专用vCPU、DDR5内存及NVMe存储,最高支持40Gbps网络连接。 快照功能保障安全回滚,并可随需求增长灵活CPU、内存或磁盘资源。若您需要自主掌控的私有AI服务CloudzyVPS托管服务将为您提供简洁的基础平台,无需依赖第三方云服务即可运行聊天机器人、嵌入式模型及基础RAG系统。

奥拉玛虚拟专用服务器
Ollama VPS 功能
  • 检查
    分布式拒绝服务攻击防护
  • 检查
    多种支付方式可选
  • 检查
    完全管理员权限
  • 检查
    零延迟连接
  • 检查
    达拉斯GPU 服务器位置
服务器
活动VPS 0
护盾
0 退款保证
奥拉玛虚拟专用服务器

为何选择CloudzyOllama VPS主机服务

释放灵活性与性能的强大力量

随时可启动

预装OpenWebUI和Ollama的Ubuntu 24.04 LTS系统,附带可立即测试的入门模型。

模糊

性能优化

专用vCPU、NVMe和DDR5技术确保在高峰时段保持快速响应。

模糊

全栈控制

为端口、systemd服务、环境变量提供root访问权限,并通过cloud-init实现首次启动自动化。

模糊

清洁多用户模式

使用 OpenWebUI 账户,绑定 API,并分别处理快照和模型级存储。

模糊

可靠的基础

快速配置、静态IP地址及99.99%正常运行时间服务等级协议(SLA),适用于实验室环境、预发布环境或小型生产环境。

模糊
Cloudzy VPS使用场景

适合谁?

 

人工智能研究人员正在测试推理模型

在deepseek-r1和llama3.2等模型间切换,记录实验结果,并通过完整根目录和快照功能确保实验数据的私密性。

立即部署
 

专注隐私保护的团队处理敏感草稿

将提示词和输出结果存放在专用服务器上,该服务器需具备静态IP、防火墙控制功能,并采用区域化托管以确保数据本地化。

立即部署
 

产品工程师原型开发人工智能功能

从服务中调用11434 API,使用OpenWebUI进行迭代,并在每次变更前进行快照以保护工作状态。

立即部署
 

机器学习运维团队环境标准化

烘焙云初始化程序,配置服务单元,并在不同区域复制干净的镜像,以实现可预测的部署和快速恢复。

立即部署
 

教育工作者与实验室指导教师

为学生提供统一的OpenWebUI前端界面,并授予root权限,用于学习拉取操作、提示功能及基础RAG练习。

立即部署
 

小团队打造内部助手

运行私有聊天、嵌入式处理和基础文档问答功能,配备NVMe存储和专用vCPU,支持后期扩展。

立即部署

如何使用?

如何设置Ollama VPS

不知从何开始?CloudzyOllama VPS主机服务,您将直接获得预装Ollama和OpenWebUI的Ubuntu 24.04 LTS系统。以root身份通过SSH登录,查看/rootcloudzy,确认服务已启动。访问http://:8080打开OpenWebUI界面,通过http://:11434访问API。 根据需求拉取或切换模型。若需从其他主机或通过代理访问API,请设置相应环境变量及防火墙规则。以下步骤涵盖基础操作:

深色背景点缀着白色圆点,中央置有醒目的白色Ollama标志;其上方标注着"PULL"字样及向下箭头,暗示着拉取图像或模型的操作。
推荐信

Cloudzy,用户心声

了解121267的开发者如何将Cloudzy 他们的工作流程。

无中断工程

Cloudzy 工程团队Cloudzy 专注于创新而非基础设施。我们使用其高性能服务器管理大型文件和软件许可证,自启用以来从未出现过任何技术问题或停机情况。

埃里克
埃里克

多伦多大学UTFR队队长

常见问题解答

常见问题解答 | Ollama VPS

什么是Ollama,它是如何运作的?

Ollama 是一款本地运行时,通过简单命令和 HTTP API 提供大型语言模型服务。您可运行或调用模型,随后通过端点进行交互,例如 /api/generate 或兼容 OpenAI 的 /v1/chat/completions。

GPU Ollama需要GPU吗?

CPU可运行,但兼容GPU 加速推理。通过各自的软件栈支持NVIDIA、AMD ROCm及Apple Silicon架构。

Ollama运行常见模型需要多少内存?

经验法则表明,使用典型量化设置时,7B模型通常需要约8 GB内存,13B模型约需16 GB,而70B模型则需约64 GB。

Ollama 是否支持离线使用?

是的。初始模型下载完成后,您可以在本地运行模型而无需外部服务。默认情况下,API由主机通过11434端口提供服务。

如何在Ollama中添加或切换模型?

使用命令如 `ollama pull` 下载模型,使用 `ollama run` 启动聊天。模型页面如 `llama3.2` 和 `deepseek-r1` 列出了标签和规格。

在Cloudzy VPS上,我能获得哪些访问权限?

您将获得Ubuntu 24.04的完整root权限,并预装Ollama和OpenWebUI。OpenWebUI通过8080端口访问,Ollama API通过11434端口访问,用于在您的Ollama VPS上进行集成。

Cloudzy VPS主机的性能?

方案采用专用vCPU、DDR5内存及NVMe存储,通过最高40 Gbps的连接保持低往返时间。您可先CPU起步,若工作负载在Ollama VPS主机上扩展,再考虑GPU镜像。

如何访问Cloudzy OllCloudzy 服务器上的OpenWebUI和API?

访问 http://:8080 获取 OpenWebUI。程序化访问请使用 http://:11434。若从其他主机连接,请根据需要配置绑定和允许的来源。

Cloudzy VPS 提供哪些安全选项?

控制SSH密钥和防火墙规则,限制API暴露范围,并在必要时将服务置于代理服务器之后。OpenWebUI支持通过环境配置访问远程Ollama端点。

我能否Cloudzy VPS进行缩放或快照操作?适用哪些正常运行时间政策?

是的。随着项目规模扩大,可扩展CPU、内存或磁盘资源,并在重大变更前创建快照。该平台致力于实现99.99%的正常运行时间服务等级协议(SLA),确保访问稳定可靠。

还有疑问吗?

需要帮助?请联系我们的支持团队。

车票 提交工单

16+个地点。因为每一毫秒都至关重要

将您的VPS部署在更接近用户的位置,以获得最佳性能。

拉斯维加斯
拉斯维加斯 美国
阿姆斯特丹
阿姆斯特丹 荷兰
法兰克福
法兰克福 德国
罗马尼亚
罗马尼亚 罗马尼亚
即将推出
新加坡
新加坡 新加坡
迪拜
迪拜 阿拉伯联合酋长国
马来西亚
马来西亚 马来西亚
即将推出
东京
东京 日本
即将推出
悉尼
悉尼 澳大利亚
网络速度

0Gbps 网络速度

网络正常运行时间

0.00% 网络正常运行时间

平均延迟

<0ms Average Latency

监测

0/7 监控

世界地图 环球 环球 环球 环球 环球 环球 环球
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
罗马尼亚 罗马尼亚
即将推出
 
 
 
 
 
 
 
 
 
 
 
 
马来西亚 马来西亚
即将推出
 
 
 
 
东京 东京
即将推出
 
 
 
 
 
 
 
 
准备好开启您的云之旅了吗?从A到ZY,全程无忧! 从基础方案开始,零风险体验,享受14天无忧退款保障。
云