50% off 全プラン、期間限定。料金は $2.48/mo

Ollama VPS ホスティング

オープンソースを動かす
お使いの VPS で LLMs を使用する。

最新の AMD EPYC と純粋な NVMe で動作する、Ollama 対応の VPS。
Independent since 2008. Llama、Mistral、Qwen、DeepSeek、Gemma、すべて自分のIPで管理。

4.6· 713 reviews on Trustpilot

Starting at $2.48/mo · 50%オフ · クレジットカード不要

~ ssh root@ollama-lon-001connected
root@ollama-lon-001:~# ollama pull llama3
マニフェストを取得中... モデルをダウンロード中 5.0 GB ✔
root@ollama-lon-001:~# ollama run llama3 "What's a VPS?"
A VPS(バーチャルプライベートサーバー)は、仮想化された
独自のOSと専用リソースを持つコンピューティング環境
クラウド上でホストされるリソース...
root@ollama-lon-001:~# _

Cloudzy の概要

Cloudzy hosts Ollama-ready VPSes from 12 regions 北米、ヨーロッパ、中東、アジア全域で利用可能。料金は $2.48 per month。プランの料金は 512 MB to 64 GB DDR5, all on NVMe storage with 40 Gbps アップリンク。 Ollama はワンクリックでインストール完了。あとは pull するだけ。 Llama 3、Mistral、Qwen、DeepSeek、Gemma and serve them behind an OpenAI互換 API. Servers provision in 60 seconds. Cloudzy は、以下の年より独立して運営されています: 2008 and is rated 4.6 / 5 by 713+ reviewers on Trustpilot.

Starting price
$2.48 / month
Provisioning
60 seconds
Regions
12 worldwide
Uptime SLA
99.95%
Money-back
14 days
Founded
2008

開発者がCloudzyを選ぶ理由

An LLM host favorite.

ユーザーが実際に比較する4つのポイント、すべてに応えています。

推論向けに最適化

AMD EPYC, NVMe-only storage, DDR5 memory, 40 Gbps uplinks. Model weights load from NVMe in seconds; no slow disk choking your first response.

リスクなしの無料トライアル

全プランに14日間の返金保証付き。理由は問いません。初期費用なし。ダッシュボードからいつでも解約できます。

99.95% uptime SLA

12リージョンにまたがる自動モニタリング。直近30日間のSLAはstatus.cloudzy.comで公開追跡中。PRの陰に隠れません。

24/7 human support

ライブチャットとチケットの返答は通常5分以内。対応するのはエンジニアであり、スクリプト読み上げ担当者ではありません。解決までの中央値は1時間以内。

モデルを選ぶ

オープンウェイトモデル。
あと一歩。

安全性を重視するならLlama 3、汎用チャットにはMistral、多言語対応はQwen、コード生成はDeepSeek、軽量 CPU 作業にはGemma。自由に組み合わせて、すべて同じ NVMe 上で動かせます。

すべてのプランでカスタムGGUFのアップロードに対応
Llama 3
8B / 70B / 405B
Mistral
7B / Mixtral 8x7B
Qwen
0.5B – 72B Alibaba
DeepSeek
Coder / Chat / R1
Gemma
2B / 7B Google
Phi
Microsoftの小規模モデル

Use cases

開発者がCloudzyを選ぶ理由
Cloudzy の Ollama VPS。

アプリ専用のプライベート API

専用IPに直接つながる、OpenAI互換のエンドポイント。チャット機能、要約、エージェントを、ユーザーのプロンプトを外部プロバイダーに送ることなく構築できます。

Background agents

長時間稼働するエージェントで、メールの一括処理・サイトのスクレイピング・チケットの自動タグ付けなどを行う場合、従量課金制のAPIには向きません。定額制のVPSなら問題なく動きます。cronジョブを設定して、Ollamaを叩いて、あとは待つだけ。それを繰り返す。

Code assistants

エディタのContinue / Tabbyプラグインで DeepSeek-Coder や Qwen-Coder を動かす。補完はキビキビ速く、提案ごとの課金なし、コードは外部に送らない。

ホビー向けチャット・RAGデモ

モデルをダウンロードして、Open WebUI か LibreChat を接続し、リンクを友人と共有するだけ。月数杯のコーヒー代で、すべてのスタックを1台の VPS 上に構築できる。

コンプライアンス対応のLLM

機密データ(法務・医療・社内文書)は、お使いのVPSの中に留まります。iptablesとjournaldでアクセスを監査できます。モデルもセキュリティ境界も、すべて自分で管理。

独自のファインチューニングモデルを構築する

ベースウェイトを取得し、GPU マシンでファインチューニングを行い、完成した GGUF を CPU Ollama VPS に戻して推論に使う。平日の推論は低コストに抑え、費用をかけるのはトレーニング時だけ。

60s
Provisioning
40 Gbps
Uplink
NVMe-only
Storage
12
Regions
99.95%
Uptime SLA
14 days
Money-back

Global network

12リージョン、4大陸。
選んで、モデルを取得する。

推論ホストをユーザーの近くに配置。北米・欧州では P50 レイテンシの中央値が 10 ms を下回ります。

us-utah-1us-dal-1us-lax-1us-nyc-1us-mia-1eu-ams-1eu-lon-1eu-fra-1eu-zrh-1me-dxb-1ap-sgp-1ap-tyo-1

Pricing

使った分だけ支払う。 That's it.

時間単位、月単位、年単位。転送料なし。縛りなし。現在 50% off all plans.

1 GB DDR5

Tiny CPU モデル · 1B~3B

$3.48/mo
$6.95/mo−50%
Deploy now
14日間返金保証
  • 1 vCPU @ EPYC
  • 25 GB NVMe
  • 1 TB · 40 Gbps
  • Dedicated IPv4 + IPv6
  • ワンクリックで Ollama
2 GB DDR5

7B / 8B on CPU

$7.475/mo
$14.95/mo−50%
Deploy now
14日間返金保証
  • 1 vCPU @ EPYC
  • 60 GB NVMe
  • 3 TB · 40 Gbps
  • Dedicated IPv4 + IPv6
  • ワンクリックで Ollama

FAQ. Ollama VPS

Common questions, straight answers.

Ollama VPS とは何ですか?

Ollama VPS は、ローカル LLM ランタイムである Ollama を実行するために設定された Cloudzy クラウドサーバーです。Llama 3、Mistral、Qwen、DeepSeek、Gemma などのオープンソースモデルを取得し、独自の OpenAI 互換 API の背後で提供できます。サードパーティのモデルプロバイダーにトラフィックを送ることなく、チャットアプリ、エージェント、ツールを構築できます。

Ollama はプリインストールされていますか?

Ollama はパネルからワンクリックでインストールできます。Linux テンプレートを選択するだけで、バイナリが PATH に追加され、`ollama pull llama3` が1分以内に動作します。HTTP API はデフォルトでポート 11434 をリッスンします。リバースプロキシの背後で専用 IP にバインドしてください。

CPU のみの VPS で LLM を実行できますか?

小さいモデルであれば可能です。Llama 3 8B と Mistral 7B は 16 GB CPU のサーバーで動作し、Qwen 0.5B〜3B と Gemma 2B は 4 GB でも快適に動作します。スループットはモデルサイズとプロンプトに依存します。CPU は GPU より低速ですが、低トラフィックの API、個人プロジェクト、開発作業には十分です。

大規模モデル向けの GPU プランはありますか?

あります。70B クラスのモデルや高スループットの推論には、GPU プラン(RTX 4090、RTX 5090、A100)をご覧ください。4090 は量子化で Llama 3 70B を処理でき、A100 80GB はフル精度の大規模モデルを実行できます。料金ページからリンクしています。

OpenAI 互換 API はサポートされていますか?

はい。Ollama は `/v1/chat/completions` エンドポイントを公開しており、OpenAI クライアントとそのまま互換性があります。既存のアプリの接続先を `http://your-vps:11434/v1` に変更し、モデル名を切り替えるだけです。同じ SDK を使用でき、コードの書き直しは不要です。

モデルのディスク容量はどのくらい必要ですか?

モデルによります。4ビット量子化の 7B モデルは約 4 GB、8B は約 5 GB、70B の 4ビット量子化は約 40 GB です。空き容量の範囲で好きなだけ取得できます。プランは 60 GB NVMe から始まり、最大 1.5 TB まで対応しています。1台のサーバーで複数のモデルを組み合わせて使用できます。

プロビジョニングはどれくらい速いですか?

支払いが確認されると、VPS は 60 秒で起動します。Ollama をワンクリックでインストールすれば、ランタイムはさらに1分以内に立ち上がります。最初のモデルの取得はネットワーク速度に依存しますが、以降は NVMe にキャッシュされるため高速です。

Do I get a dedicated IP?

はい、すべての VPS には専用の静的 IPv4 と IPv6 が付属します。専用 IP 経由で Ollama API にアクセスし、実際のホスト名で HTTPS を使用するにはリバースプロキシとして Caddy を設置するだけです。フローティング IP も利用できます。

隠れた費用はありますか?

いいえ。アウトバウンド転送は月額プランの転送量に含まれています。スナップショットは無料です。IPv4 + IPv6も含まれています。rootアクセスも含まれています。有料オプションはFloating IP(月$2.50)と無料枠を超えた追加スナップショットのみです。

返金保証はありますか?

はい、購入から 14 日以内であれば理由を問わず全額返金します。パネルから申請するか、[email protected] までメールでご連絡ください。

準備は整っています。
ollama run、60 秒で。

リージョンを選んでクリックし、モデルを取得するだけ。プライベートな LLM と専用 IP が手に入ります。

クレジットカード不要・14日間返金保証・いつでもキャンセル可能