オラマVPSホスティング
オラマ、プリロード済み、プライベート
Ubuntu 24.04上でプリロード済みかつプライベートなOllamaサーバーを、OpenWebUIプリインストール状態でご利用いただけます。プリロード済みモデルで迅速にテストを実施し、必要に応じて新規モデルを取得。ポート、サービス、NVMe上のスナップショットに対する完全なルート制御を維持し、最大40Gbpsのリンクを実現します。
There’s a reason 121,000+ developers & businesses choose us.
返金保証
オンラインサポート
ネットワーク速度
ネットワーク稼働時間
透明な価格設定。隠れた費用は一切ありません
0人以上の開発者や企業が当社を選ぶのには(間違いなくそれ以上の)理由があります。
- 毎年(40%OFF)
- 毎月(25%OFF)
- 1時間単位(20%OFF)
- デフォルト
何か違うものが必要ですか?
プランをカスタマイズOllama VPSとは何ですか?
Ollamaは、シンプルなコマンドとHTTP APIで大規模言語モデルをローカル実行するための軽量ランタイムです。Cloudzy Ubuntu 24.04 LTSにプリインストールされ、クリーンなブラウザベースのチャットインターフェースを提供するOpenWebUIが同梱されています。完全なrootアクセス権に加え、llama3.2やdeepseek r1などのスターターモデルが利用可能で、すぐに実験を開始し、ollama pullでモデルを追加できます。 ポート8080でWebアプリに、11434でOllama APIにアクセスし、各種ツールやコードと連携できます。専用vCPU、DDR5メモリ、NVMeストレージを最大40Gbpsリンクで提供し、プライベートテストや小規模チーム利用に最適なリソース構成です。 スナップショットによる安全なロールバックが可能で、必要に応じてCPURAM・CPUスケールアップできます。サードパーティのクラウドに依存せず、チャット・エンベディング・簡易RAGを実行するシンプルな基盤を求める場合、CloudzyVPSホスティングCloudzyプライベートAIサービスの基盤を提供します。
-
DDoS対策
-
各種のお支払い方法をご利用いただけます
-
完全な管理者アクセス権
-
遅延のない接続性
-
GPU
ハイスペックなインフラ
最高水準のインフラストラクチャを備えたサーバーにより、お客様のワークロードがスムーズかつ確実に処理されます。
リスクフリー
お客様が安心できるよう、返金保証をご提供いたします。
稼働時間保証
99.99%の稼働率を保証する、信頼性が高く安定した接続環境。
24時間365日対応のケアサポート
あなたの仕事は重要です。私たちはそれを理解し、大切にしています。カスタマーサポートも同様です。
CloudzyオラマVPSホスティングを選ぶ理由
柔軟性とパフォーマンスの力を解き放つ
ローンチ準備完了
Ubuntu 24.04 LTS に OpenWebUI と Ollama がプリインストールされ、すぐにテストできるスターターモデルも付属。
パフォーマンス調整済み
専用vCPU、NVMe、DDR5により、ピーク時でも応答速度を高速に維持します。
フルスタック制御
ポート、systemdサービス、環境変数に対するルートアクセス、およびcloud-initによる初回起動時の自動化。
クリーンなマルチユーザーパターン
OpenWebUIアカウントを使用し、APIをバインドし、スナップショットとモデルごとのストレージによる作業を分離する。
確かな基盤
ラボ環境、ステージング環境、または小規模な本番環境向けに、迅速なプロビジョニング、静的IP、99.99%の稼働率を保証するSLAを提供します。
誰のためのものですか?
機密性の高い草案を扱うプライバシー重視のチーム
プロンプトと出力は、静的IPアドレス、ファイアウォール制御、およびデータローカリティのための地域ホスティングを備えた専用サーバーに保管する。
製品エンジニアによるAI機能のプロトタイピング
サービスから11434 APIを呼び出し、OpenWebUIで反復処理を行い、作業状態を保護するため各変更前にスナップショットを取得する。
ML運用グループによる環境標準化
クラウドイニシャライズのベイク、サービスユニットの設定、およびクリーンイメージのリージョン間レプリケーションにより、予測可能なロールアウトと迅速な復元を実現します。
使い方?
Ollama VPSの設定方法
始め方がわからない?CloudzyVPSホスティングなら、OllamaとOpenWebUIがインストールされたUbuntu 24.04 LTS環境が提供されます。root権限でSSH接続し、/rootcloudzyを確認してサービスが稼働していることを確認してください。OpenWebUIはhttp://:8080で起動し、APIはhttp://:11434でアクセス可能です。 必要に応じてモデルをプルまたは切り替え。他のホストやプロキシ経由でAPIにアクセスする場合は、適切な環境変数とファイアウォールルールを設定してください。以下の手順は基本をカバーしています。
Cloudzy、ユーザーの声を通じて
121218の開発者たちが、どのようにCloudzy ワークフローCloudzy 入れているCloudzy をご覧ください。
中断のないエンジニアリング
Cloudzy 、当社のエンジニアリングチームはインフラではなくイノベーションに集中Cloudzy 。大容量ファイルやソフトウェアライセンスの管理に同社の高性能サーバーを活用しており、導入初日から技術的な問題やダウンタイムは一切発生していません。
トロント大学UTFRチームキャプテン
よくある質問 | Ollama VPS
オラマとは何ですか?また、どのように機能しますか?
Ollamaは、シンプルなコマンドとHTTP APIを通じて大規模言語モデルを提供するローカルランタイムです。モデルを実行または取得した後、/api/generateやOpenAI互換の/v1/chat/completionsなどのエンドポイントを介して操作します。
OllamaGPU が必要ですか?
いいえ。CPU動作しますが、互換性のあるGPU 推論を高速化GPU 。NVIDIA、AMD ROCm、Apple Siliconは、それぞれのスタックを通じてサポートされています。
一般的なモデルを実行する場合、OllamaにはどのくらいのRAMが必要ですか?
経験則として、典型的な量子化を使用する場合、7Bモデルは約8GBのRAM、13Bモデルは約16GB、70Bモデルは約64GBを必要とする傾向がある。
Ollamaはオフラインで使用できますか?
はい。初期モデルのダウンロード後は、外部サービスなしでローカルでモデルを実行できます。APIはデフォルトでホストのポート11434から提供されます。
Ollamaでモデルを追加または切り替えるにはどうすればよいですか?
ollama pull などのコマンドでダウンロードし、ollama run でチャットを開始します。llama3.2 や deepseek-r1 などのモデルページにはタグとサイズが記載されています。
Cloudzy VPSではどのようなアクセス権限が得られますか?
Ubuntu 24.04 に Ollama と OpenWebUI がインストールされた状態で、完全なルート権限が付与されます。OpenWebUI はポート 8080 で、Ollama API はポート 11434 で利用可能であり、Ollama VPS 上での統合に活用できます。
Cloudzy Ollama VPSホスティングのパフォーマンスをどのようにCloudzy していますか?
プランでは専用vCPU、DDR5メモリ、NVMeストレージを採用し、最大40Gbpsのリンクで往復時間を低減します。Ollama VPSホスティングでは、CPU開始し、ワークロードが拡大した際にGPUイメージの導入を検討できます。
Cloudzy Ollamaサーバー上のOpenWebUIとAPIにアクセスするにはどうすればよいですか?
OpenWebUIについてはhttp://:8080をご覧ください。プログラムによるアクセスにはhttp://:11434を使用します。他のホストから接続する場合は、必要に応じてバインディングと許可されたオリジンを設定してください。
Cloudzy VPSではどのようなセキュリティオプションが利用できますか?
SSHキーとファイアウォールルールを管理し、API公開を制限し、必要に応じてサービスをプロキシの背後に配置します。OpenWebUIは環境設定を通じてリモートOllamaエンドポイントをサポートします。
Cloudzy VPSのスケールアップやスナップショットは可能ですか?また、どの稼働時間が適用されますか?
はい。プロジェクトの成長に合わせてCPU、RAM、ディスクをスケールし、主要な変更前にはスナップショットを撮ってください。プラットフォームは予測可能なアクセスを実現するため、99.99%の稼働率SLAを目標としています。
お困りですか?サポートチームまでご連絡ください。
16か所以上の拠点。なぜなら、1ミリ秒も無駄にできないから。
最適なパフォーマンスを得るために、ユーザーに近い場所にVPSを展開してください。
0Gbps ネットワーク速度
0.00% ネットワーク稼働時間
<0ms Average Latency
0/7 監視