Hébergement VPS Ollama
Ollama, préchargé et privé
Votre propre serveur Ollama préchargé et privé sur Ubuntu 24.04 avec OpenWebUI préinstallé. Utilisez les modèles préchargés pour effectuer des tests rapides, téléchargez-en de nouveaux selon vos besoins et conservez un contrôle root complet sur les ports, les services et les instantanés sur NVMe avec une connexion pouvant atteindre 40 Gbps.
There’s a reason 121,000+ developers & businesses choose us.
Garantie de remboursement
Assistance en ligne
Vitesse du réseau
Disponibilité du réseau
Tarification transparente. Aucuns frais cachés.
Il y a (bien plus qu'une) raison pour laquelle plus de 0 développeurs et entreprises nous choisissent.
- Payer annuellement (40 % de réduction)
- Paiement mensuel (25 de réduction)
- Rémunération horaire (20 % de réduction)
- Par défaut
Besoin de quelque chose de différent ?
Personnalisez votre forfaitQu'est-ce que Ollama VPS ?
Ollama est un environnement d'exécution léger permettant d'exécuter localement des modèles linguistiques volumineux à l'aide de commandes simples et d'une API HTTP. Sur Cloudzy, il est fourni sur Ubuntu 24.04 LTS avec OpenWebUI préinstallé pour une interface de chat claire et basée sur un navigateur. Vous bénéficiez d'un accès root complet et de modèles de démarrage tels que llama3.2 et deepseek r1, ce qui vous permet de commencer à expérimenter et d'en ajouter d'autres avec ollama pull. Accédez à l'application web sur le port 8080 et à l'API Ollama sur le port 11434 pour l'intégrer à vos outils et à votre code. Les ressources sont adaptées aux tests privés ou à l'utilisation par de petites équipes, avec des vCPU dédiés, de la mémoire DDR5 et un stockage NVMe sur une liaison pouvant atteindre 40 Gbps. Les instantanés permettent des restaurations en toute sécurité, et vous pouvez faire évoluer CPU, la RAM ou le disque à mesure que vos besoins augmentent. Si vous souhaitez disposer d'un service d'IA privé que vous contrôlez, l'hébergement VPS Ollama Cloudzyvous offre une base simple pour exécuter des chats, des intégrations et des RAG simples sans dépendre de clouds tiers.
-
Protection contre les attaques DDoS
-
Différents modes de paiement disponibles
-
Accès administrateur complet
-
Connectivité sans latence
-
Emplacement GPU à Dallas
Un favori des amateurs de technologie !
Exécutez une pile Ollama prête à l'emploi avec OpenWebUI sur NVMe et des vCPU dédiés pour des chats réactifs et des changements de modèle rapides. Un réseau pouvant atteindre 40 Gbps et une bande passante généreuse garantissent la rapidité des requêtes dans la région de votre choix. Avec un SLA garantissant une disponibilité de 99,99 %, votre IA privée reste disponible.
Infrastructure hautement performante
Des serveurs reposant sur une infrastructure de pointe garantissent un traitement fluide et ponctuel de vos charges de travail.
Sans risque
Nous vous offrons une garantie de remboursement pour que vous ayez l'esprit tranquille.
Disponibilité garantie
Une connectivité fiable et stable grâce à notre disponibilité garantie à 99,99 %.
Assistance 24 heures sur 24, 7 jours sur 7
Votre travail est important. Nous en sommes conscients et nous y accordons toute notre attention, tout comme notre service clientèle.
Pourquoi choisir l'hébergement VPS Ollama Cloudzy?
Libérez le pouvoir de la flexibilité et de la performance
Prêt à être lancé
Ubuntu 24.04 LTS avec OpenWebUI et Ollama préinstallés, ainsi que des modèles de démarrage à tester immédiatement.
Optimisation des performances
Les vCPU dédiés, NVMe et DDR5 permettent de garantir des réponses rapides pendant les heures de pointe.
Contrôle complet de la pile
Accès root pour les ports, les services systemd, les variables d'environnement et l'automatisation du premier démarrage avec cloud-init.
Modèles multi-utilisateurs propres
Utilisez les comptes OpenWebUI, liez l'API et séparez le travail avec des instantanés et un stockage par modèle.
Fondation fiable
Provisionnement rapide, adresse IP statique et SLA garantissant une disponibilité de 99,99 % pour les laboratoires, les environnements de test ou les petites productions.
À qui s'adresse-t-il ?
Des chercheurs en IA testent des modèles de raisonnement
Passez d'un modèle à l'autre, comme deepseek-r1 et llama3.2, consignez les résultats et préservez la confidentialité de vos expériences grâce à un accès root complet et à des instantanés.
Équipes axées sur la confidentialité chargées des projets sensibles
Conservez les invites et les sorties sur un serveur dédié avec une adresse IP statique, un contrôle par pare-feu et un hébergement régional pour la localisation des données.
Ingénieurs produit Prototypage des fonctionnalités IA
Appelez l'API 11434 à partir des services, effectuez une itération avec OpenWebUI et prenez un instantané avant chaque modification afin de protéger les états de fonctionnement.
Groupes ML Ops normalisant les environnements
Exécutez cloud-init, configurez les unités de service et répliquez une image propre dans toutes les régions pour des déploiements prévisibles et des restaurations rapides.
Enseignants et instructeurs de laboratoire
Offrez aux étudiants une interface OpenWebUI cohérente avec un accès root pour apprendre les requêtes, les invites et les exercices RAG de base.
Petites équipes chargées de constituer des assistants internes
Exécutez des chats privés, des intégrations et des questions-réponses simples sur des documents grâce au stockage NVMe et à des vCPU dédiés que vous pouvez faire évoluer ultérieurement.
Comment l'utiliser ?
Comment configurer un VPS Ollama
Vous ne savez pas par où commencer ? Avec l'hébergement VPS Ollama Cloudzy, vous accédez à Ubuntu 24.04 LTS avec Ollama et OpenWebUI installés. Connectez-vous en tant qu'administrateur via SSH, consultez /rootcloudzy et vérifiez que les services sont opérationnels. Ouvrez http://:8080 pour OpenWebUI et accédez à l'API à l'adresse http://:11434. Tirez ou changez de modèle selon vos besoins. Si vous prévoyez d'accéder à l'API à partir d'autres hôtes ou via un proxy, définissez les variables d'environnement et les règles de pare-feu appropriées. Les étapes ci-dessous couvrent les bases.
Cloudzy, à travers les mots de nos utilisateurs
Découvrez comment les développeurs 121261 intègrent Cloudzy leur flux de travail.
Ingénierie sans interruption
Cloudzy notre équipe d'ingénieurs de se concentrer sur l'innovation plutôt que sur l'infrastructure. Nous utilisons leurs serveurs haute performance pour gérer des fichiers volumineux et des licences logicielles, et nous n'avons rencontré aucun problème technique ni aucune interruption depuis le premier jour.
Capitaine de l'équipe UTFR, Université de Toronto
FAQ | Ollama VPS
Qu'est-ce qu'Ollama et comment ça marche ?
Ollama est un environnement d'exécution local qui prend en charge les modèles linguistiques volumineux à l'aide de commandes simples et d'une API HTTP. Vous exécutez ou extrayez des modèles, puis interagissez via des points de terminaison tels que /api/generate ou /v1/chat/completions, compatible avec OpenAI.
Ollama a-t-il besoin d'un GPU fonctionner ?
Non. CPU fonctionne CPU, mais un GPU compatible GPU accélérer l'inférence. NVIDIA, AMD ROCm et Apple Silicon sont pris en charge via leurs piles respectives.
Quelle quantité de RAM Ollama nécessite-t-il pour les modèles courants ?
En règle générale, les modèles 7B nécessitent environ 8 Go de RAM, les modèles 13B environ 16 Go et les modèles 70B environ 64 Go lorsqu'on utilise des quantifications classiques.
Ollama peut-il être utilisé hors ligne ?
Oui. Une fois le modèle initial téléchargé, vous pouvez exécuter les modèles localement sans service externe. L'API est fournie par défaut par l'hôte sur le port 11434.
Comment ajouter ou changer de modèle dans Ollama ?
Utilisez des commandes telles que ollama pull pour télécharger et ollama run pour démarrer le chat. Les pages de modèles telles que llama3.2 et deepseek-r1 répertorient les balises et les tailles.
Quel accès ai-je sur Cloudzy VPS ?
Vous bénéficiez d'un accès root complet sur Ubuntu 24.04 avec Ollama et OpenWebUI installés. OpenWebUI est disponible sur le port 8080 et l'API Ollama sur le port 11434 pour les intégrations sur votre VPS Ollama.
Comment Cloudzy -t-il les performances pour l'hébergement VPS Ollama ?
Les plans utilisent des vCPU dédiés, de la mémoire DDR5 et un stockage NVMe sur une liaison pouvant atteindre 40 Gbps afin de réduire le temps de transit. Vous pouvez commencer CPU, puis envisager des images GPU si vos charges de travail augmentent sur Ollama VPS Hosting.
Comment puis-je accéder à OpenWebUI et à l'API sur le serveur Cloudzy ?
Rendez-vous sur http://:8080 pour OpenWebUI. L'accès programmatique utilise http://:11434. Si vous vous connectez à partir d'autres hôtes, configurez la liaison et les origines autorisées selon vos besoins.
Quelles sont les options de sécurité disponibles sur Cloudzy VPS ?
Contrôlez les clés SSH et les règles du pare-feu, limitez l'exposition de l'API et placez le service derrière votre proxy si nécessaire. OpenWebUI prend en charge les points de terminaison Ollama distants via la configuration de l'environnement.
Puis-je mettre à l'échelle ou créer un instantané de mon VPS Cloudzy et quel est le temps de disponibilité applicable ?
Oui. Adaptez CPU, la mémoire vive ou l'espace disque à mesure que vos projets prennent de l'ampleur et effectuez des sauvegardes avant tout changement majeur. La plateforme vise un accord de niveau de service (SLA) garantissant une disponibilité de 99,99 % pour un accès prévisible.
Besoin d'aide ? Contactez notre équipe d'assistance.
Plus de 16 emplacements. Parce que chaque milliseconde compte.
Déployez votre VPS plus près des utilisateurs pour des performances optimales.
0 Gbps Vitesse du réseau
0,00 % Disponibilité du réseau
<0ms Average Latency
0/7 Surveillance