Ollama VPS-Hosting
Ollama, vorinstalliert und privat
Ihr eigener Ollama-Server, vorinstalliert und privat auf Ubuntu 24.04 mit vorinstalliertem OpenWebUI. Nutzen Sie die vorinstallierten Modelle für schnelle Tests, laden Sie bei Bedarf neue Modelle herunter und behalten Sie die vollständige Root-Kontrolle über Ports, Dienste und Snapshots auf NVMe mit einer Verbindung von bis zu 40 Gbit/s.
There’s a reason 121,000+ developers & businesses choose us.
Geld-zurück-Garantie
Online-Support
Netzwerkgeschwindigkeit
Netzwerkverfügbarkeit
Transparente Preise. Keine versteckten Gebühren.
Es gibt (definitiv mehr als) einen Grund, warum sich über 0 Entwickler und Unternehmen für uns entscheiden.
- Jährlich (40 % Rabatt)
- Monatlich (25 % Rabatt)
- Stündlich (20 % Rabatt)
- Standard
Brauchen Sie etwas anderes?
Passen Sie Ihren Plan anWas ist Ollama VPS?
Ollama ist eine leichtgewichtige Laufzeitumgebung für die lokale Ausführung großer Sprachmodelle mit einfachen Befehlen und einer HTTP-API. Auf Cloudzy wird es auf Ubuntu 24.04 LTS mit vorinstalliertem OpenWebUI für eine übersichtliche, browserbasierte Chat-Oberfläche ausgeliefert. Sie erhalten vollen Root-Zugriff sowie Startermodelle wie llama3.2 und deepseek r1, sodass Sie mit ollama pull experimentieren und weitere hinzufügen können. Greifen Sie auf die Web-App auf Port 8080 und die Ollama-API auf Port 11434 zu, um sie mit Tools und Code zu integrieren. Die Ressourcen sind genau richtig dimensioniert für private Tests oder die Nutzung in kleinen Teams, mit dedizierten vCPUs, DDR5-Speicher und NVMe-Speicher auf einer Verbindung mit bis zu 40 Gbit/s. Snapshots machen Rollbacks sicher, und Sie können CPU, RAM oder Festplatte nach Bedarf skalieren. Wenn Sie einen privaten KI-Dienst wünschen, den Sie selbst kontrollieren, bietet Ihnen CloudzyOllama VPS Hosting eine einfache Basis für Chats, Embeddings und einfache RAG, ohne dass Sie auf Clouds von Drittanbietern angewiesen sind.
-
DDoS-Schutz
-
Verschiedene Zahlungsmethoden verfügbar
-
Vollständiger Administratorzugriff
-
Latenzfreie Konnektivität
-
Standort GPU in Dallas
Ein Favorit für Technikbegeisterte!
Führen Sie einen fertigen Ollama-Stack mit OpenWebUI auf NVMe und dedizierten vCPUs für reaktionsschnelle Chats und schnelle Modellwechsel aus. Ein Netzwerk mit bis zu 40 Gbit/s und großzügiger Bandbreite sorgt für schnelle Anfragen in der von Ihnen gewählten Region. Mit einer SLA-Verfügbarkeit von 99,99 % bleibt Ihre private KI jederzeit verfügbar.
Hochwertige Infrastruktur
Server auf einer erstklassigen Infrastruktur sorgen dafür, dass Ihre Arbeitslast reibungslos und pünktlich verarbeitet wird.
Risikofrei
Wir bieten Ihnen eine Geld-zurück-Garantie, damit Sie sich keine Sorgen machen müssen.
Garantierte Verfügbarkeit
Zuverlässige und stabile Konnektivität mit einer garantierten Verfügbarkeit von 99,99 %.
Rund um die Uhr fürsorgliche Unterstützung
Ihre Arbeit ist wichtig. Das wissen wir und das ist uns wichtig – ebenso wie unserem Kundensupport.
Warum sollten Sie sich für das Ollama VPS-Hosting Cloudzyentscheiden?
Entfesseln Sie die Kraft der Flexibilität und Leistung
Startbereit
Ubuntu 24.04 LTS mit vorinstalliertem OpenWebUI und Ollama sowie Einstiegsmodellen zum sofortigen Testen.
Leistungsoptimiert
Dedizierte vCPUs, NVMe und DDR5 sorgen für schnelle Reaktionszeiten auch in Spitzenzeiten.
Vollständige Stapelsteuerung
Root-Zugriff für Ports, systemd-Dienste, Umgebungsvariablen und Automatisierung beim ersten Start mit cloud-init.
Saubere Muster für mehrere Benutzer
Verwenden Sie OpenWebUI-Konten, binden Sie die API und trennen Sie die Arbeit mit Snapshots und modellspezifischer Speicherung.
Zuverlässiges Fundament
Schnelle Bereitstellung, statische IP-Adresse und eine SLA mit einer Verfügbarkeit von 99,99 % für Labore, Staging-Umgebungen oder kleine Produktionsanwendungen.
Für wen ist es gedacht?
KI-Forscher testen Denkmodelle
Wechseln Sie zwischen Modellen wie deepseek-r1 und llama3.2, protokollieren Sie Ergebnisse und halten Sie Experimente mit vollständigen Root-Rechten und Snapshots privat.
Datenschutzorientierte Teams, die sensible Entwürfe bearbeiten
Bewahren Sie Eingabeaufforderungen und Ausgaben auf einem dedizierten Server mit statischer IP-Adresse, Firewall-Kontrolle und regionalem Hosting für Datenlokalität auf.
Produktingenieure Prototyping KI-Funktionen
Rufen Sie die 11434-API aus den Diensten auf, iterieren Sie mit OpenWebUI und erstellen Sie vor jeder Änderung einen Snapshot, um den Arbeitsstatus zu schützen.
ML-Ops-Gruppen standardisieren Umgebungen
Bake Cloud-Init, richten Sie Service-Einheiten ein und replizieren Sie ein sauberes Image über Regionen hinweg, um vorhersehbare Rollouts und schnelle Wiederherstellungen zu ermöglichen.
Pädagogen und Laborleiter
Geben Sie den Schülern ein einheitliches OpenWebUI-Frontend mit Root-Zugriff für Lernabfragen, Eingabeaufforderungen und grundlegende RAG-Übungen.
Kleine Teams, die interne Assistenten aufbauen
Führen Sie private Chats, Einbettungen und einfache Dokumenten-Q&A mit NVMe-Speicher und dedizierten vCPUs durch, die Sie später skalieren können.
Wie wird es verwendet?
So richten Sie einen Ollama-VPS ein
Sie wissen nicht, wie Sie beginnen sollen? Mit dem Ollama VPS-Hosting Cloudzyerhalten Sie Ubuntu 24.04 LTS mit installiertem Ollama und OpenWebUI. Melden Sie sich als Root über SSH an, überprüfen Sie /rootcloudzy und vergewissern Sie sich, dass die Dienste laufen. Öffnen Sie http://:8080 für OpenWebUI und rufen Sie die API unter http://:11434 auf. Rufen Sie Modelle nach Bedarf ab oder wechseln Sie sie. Wenn Sie vorhaben, von anderen Hosts oder über einen Proxy auf die API zuzugreifen, legen Sie die entsprechenden Umgebungsvariablen und Firewall-Regeln fest. Die folgenden Schritte behandeln die Grundlagen.
Cloudzy, in den Worten unserer Nutzer
Erfahren Sie, wie 121218 %-Entwickler Cloudzy in ihren Arbeitsablauf integrieren.
Technik ohne Unterbrechungen
Cloudzy unser Entwicklerteam auf Innovationen konzentrieren, statt sich um die Infrastruktur zu kümmern. Wir nutzen die leistungsstarken Server von Cloudzy, um große Dateien und Softwarelizenzen zu verwalten, und hatten seit dem ersten Tag keine technischen Probleme oder Ausfälle.
Mannschaftskapitän bei UTFR, Universität Toronto
FAQ | Ollama VPS
Was ist Ollama und wie funktioniert es?
Ollama ist eine lokale Laufzeitumgebung, die große Sprachmodelle über einfache Befehle und eine HTTP-API bereitstellt. Sie führen Modelle aus oder rufen sie ab und interagieren dann über Endpunkte wie /api/generate oder OpenAI-kompatible /v1/chat/completions.
Benötigt Ollama eine GPU zu laufen?
Nein. CPU funktioniert, aber eine kompatible GPU die Inferenz beschleunigen. NVIDIA, AMD ROCm und Apple Silicon werden über ihre jeweiligen Stacks unterstützt.
Wie viel RAM benötigt Ollama für gängige Modelle?
Als Faustregel gilt, dass 7B-Modelle bei typischer Quantisierung in der Regel etwa 8 GB RAM, 13B-Modelle etwa 16 GB und 70B-Modelle etwa 64 GB benötigen.
Ist Ollama offline nutzbar?
Ja. Nach dem ersten Herunterladen der Modelle können Sie diese lokal ohne externen Dienst ausführen. Die API wird standardmäßig vom Host auf Port 11434 bereitgestellt.
Wie fügt man Modelle in Ollama hinzu oder wechselt zwischen ihnen?
Verwenden Sie Befehle wie „ollama pull“, um die Software herunterzuladen, und „ollama run“, um den Chat zu starten. Auf Modellseiten wie llama3.2 und deepseek-r1 finden Sie Tags und Größenangaben.
Welchen Zugriff erhalte ich auf Cloudzy VPS?
Sie erhalten vollständige Root-Rechte auf Ubuntu 24.04 mit installiertem Ollama und OpenWebUI. OpenWebUI ist unter Port 8080 und die Ollama-API unter 11434 für Integrationen auf Ihrem Ollama-VPS verfügbar.
Wie Cloudzy die Leistung für Ollama VPS Hosting?
Die Pläne nutzen dedizierte vCPUs, DDR5-Speicher und NVMe-Speicher über eine Verbindung mit bis zu 40 Gbit/s, um die Roundtrip-Zeit gering zu halten. Sie können zunächst CPU beginnen und dann GPU Images in Betracht ziehen, wenn Ihre Workloads auf Ollama VPS Hosting wachsen.
Wie erreiche ich OpenWebUI und die API auf dem Cloudzy -Server?
Besuchen Sie http://:8080 für OpenWebUI. Der programmatische Zugriff erfolgt über http://:11434. Wenn Sie eine Verbindung von anderen Hosts herstellen, konfigurieren Sie die Bindung und die zulässigen Ursprünge nach Bedarf.
Welche Sicherheitsoptionen sind auf Cloudzy VPS verfügbar?
Kontrollieren Sie SSH-Schlüssel und Firewall-Regeln, beschränken Sie die API-Freigabe und platzieren Sie den Dienst bei Bedarf hinter Ihrem Proxy. OpenWebUI unterstützt entfernte Ollama-Endpunkte über die Umgebungskonfiguration.
Kann ich mein Cloudzy VPS skalieren oder einen Snapshot erstellen und welche Verfügbarkeit gilt?
Ja. Skalieren Sie CPU, RAM oder Festplatte entsprechend dem Wachstum Ihrer Projekte und erstellen Sie vor größeren Änderungen einen Snapshot. Die Plattform strebt eine Verfügbarkeit von 99,99 % gemäß SLA an, um einen vorhersehbaren Zugriff zu gewährleisten.
Benötigen Sie Hilfe? Kontaktieren Sie unser Support-Team.
Über 16 Standorte. Weil jede Millisekunde zählt.
Stellen Sie Ihren VPS näher an den Benutzern bereit, um eine optimale Leistung zu erzielen.
0 Gbit/s Netzwerkgeschwindigkeit
0,00 % Netzwerkverfügbarkeit
<0ms Average Latency
0/7 Überwachung