Hébergement VPS Ollama

Hébergement VPS Ollama

Ollama, préchargé et privé

Votre propre serveur Ollama préchargé et privé sur Ubuntu 24.04 avec OpenWebUI préinstallé. Utilisez les modèles préchargés pour effectuer des tests rapides, téléchargez-en de nouveaux selon vos besoins et conservez un contrôle root complet sur les ports, les services et les instantanés sur NVMe avec une connexion pouvant atteindre 40 Gbps.

Excellent
Étoiles TrustPilot
Plus de 500 avis sur

There’s a reason 121,000+ developers & businesses choose us.

Protection DDoS à 100 %
0 jours

Garantie de remboursement

Assistance 24 h/24, 7 j/7
0/0

Assistance en ligne

Vitesse du réseau
0 Gbit/s

Vitesse du réseau

Disponibilité du réseau
0%

Disponibilité du réseau

TARIFS

Tarification transparente. Aucuns frais cachés.

Il y a (bien plus qu'une) raison pour laquelle plus de 0 développeurs et entreprises nous choisissent.

  • Payer annuellement (40 % de réduction)
  • Paiement mensuel (25 de réduction)
  • Rémunération horaire (20 % de réduction)
  • Par défaut
Ollama VPS

Qu'est-ce que Ollama VPS ?

Ollama est un environnement d'exécution léger permettant d'exécuter localement des modèles linguistiques volumineux à l'aide de commandes simples et d'une API HTTP. Sur Cloudzy, il est fourni sur Ubuntu 24.04 LTS avec OpenWebUI préinstallé pour une interface de chat claire et basée sur un navigateur. Vous bénéficiez d'un accès root complet et de modèles de démarrage tels que llama3.2 et deepseek r1, ce qui vous permet de commencer à expérimenter et d'en ajouter d'autres avec ollama pull. Accédez à l'application web sur le port 8080 et à l'API Ollama sur le port 11434 pour l'intégrer à vos outils et à votre code. Les ressources sont adaptées aux tests privés ou à l'utilisation par de petites équipes, avec des vCPU dédiés, de la mémoire DDR5 et un stockage NVMe sur une liaison pouvant atteindre 40 Gbps. Les instantanés permettent des restaurations en toute sécurité, et vous pouvez faire évoluer CPU, la RAM ou le disque à mesure que vos besoins augmentent. Si vous souhaitez disposer d'un service d'IA privé que vous contrôlez, l'hébergement VPS Ollama Cloudzyvous offre une base simple pour exécuter des chats, des intégrations et des RAG simples sans dépendre de clouds tiers.

Ollama VPS
Caractéristiques du VPS Ollama
  • vérifier
    Protection contre les attaques DDoS
  • vérifier
    Différents modes de paiement disponibles
  • vérifier
    Accès administrateur complet
  • vérifier
    Connectivité sans latence
  • vérifier
    Emplacement GPU à Dallas
serveur
VPS actif 0
bouclier
0 Garantie de remboursement
Ollama VPS

Pourquoi choisir l'hébergement VPS Ollama Cloudzy?

Libérez le pouvoir de la flexibilité et de la performance

Prêt à être lancé

Ubuntu 24.04 LTS avec OpenWebUI et Ollama préinstallés, ainsi que des modèles de démarrage à tester immédiatement.

flou

Optimisation des performances

Les vCPU dédiés, NVMe et DDR5 permettent de garantir des réponses rapides pendant les heures de pointe.

flou

Contrôle complet de la pile

Accès root pour les ports, les services systemd, les variables d'environnement et l'automatisation du premier démarrage avec cloud-init.

flou

Modèles multi-utilisateurs propres

Utilisez les comptes OpenWebUI, liez l'API et séparez le travail avec des instantanés et un stockage par modèle.

flou

Fondation fiable

Provisionnement rapide, adresse IP statique et SLA garantissant une disponibilité de 99,99 % pour les laboratoires, les environnements de test ou les petites productions.

flou
Cas d'utilisation du VPS Ollama Cloudzy

À qui s'adresse-t-il ?

 

Des chercheurs en IA testent des modèles de raisonnement

Passez d'un modèle à l'autre, comme deepseek-r1 et llama3.2, consignez les résultats et préservez la confidentialité de vos expériences grâce à un accès root complet et à des instantanés.

Déployer maintenant
 

Équipes axées sur la confidentialité chargées des projets sensibles

Conservez les invites et les sorties sur un serveur dédié avec une adresse IP statique, un contrôle par pare-feu et un hébergement régional pour la localisation des données.

Déployer maintenant
 

Ingénieurs produit Prototypage des fonctionnalités IA

Appelez l'API 11434 à partir des services, effectuez une itération avec OpenWebUI et prenez un instantané avant chaque modification afin de protéger les états de fonctionnement.

Déployer maintenant
 

Groupes ML Ops normalisant les environnements

Exécutez cloud-init, configurez les unités de service et répliquez une image propre dans toutes les régions pour des déploiements prévisibles et des restaurations rapides.

Déployer maintenant
 

Enseignants et instructeurs de laboratoire

Offrez aux étudiants une interface OpenWebUI cohérente avec un accès root pour apprendre les requêtes, les invites et les exercices RAG de base.

Déployer maintenant
 

Petites équipes chargées de constituer des assistants internes

Exécutez des chats privés, des intégrations et des questions-réponses simples sur des documents grâce au stockage NVMe et à des vCPU dédiés que vous pouvez faire évoluer ultérieurement.

Déployer maintenant

Comment l'utiliser ?

Comment configurer un VPS Ollama

Vous ne savez pas par où commencer ? Avec l'hébergement VPS Ollama Cloudzy, vous accédez à Ubuntu 24.04 LTS avec Ollama et OpenWebUI installés. Connectez-vous en tant qu'administrateur via SSH, consultez /rootcloudzy et vérifiez que les services sont opérationnels. Ouvrez http://:8080 pour OpenWebUI et accédez à l'API à l'adresse http://:11434. Tirez ou changez de modèle selon vos besoins. Si vous prévoyez d'accéder à l'API à partir d'autres hôtes ou via un proxy, définissez les variables d'environnement et les règles de pare-feu appropriées. Les étapes ci-dessous couvrent les bases.

Fond sombre et pointillé avec un grand logo Ollama blanc centré ; au-dessus, le mot « PULL » et une flèche vers le bas, suggérant de tirer une image ou un modèle.
Témoignage

Cloudzy, à travers les mots de nos utilisateurs

Découvrez comment les développeurs 121261 intègrent Cloudzy leur flux de travail.

Ingénierie sans interruption

Cloudzy notre équipe d'ingénieurs de se concentrer sur l'innovation plutôt que sur l'infrastructure. Nous utilisons leurs serveurs haute performance pour gérer des fichiers volumineux et des licences logicielles, et nous n'avons rencontré aucun problème technique ni aucune interruption depuis le premier jour.

Eric
Eric

Capitaine de l'équipe UTFR, Université de Toronto

Foire aux questions

FAQ | Ollama VPS

Qu'est-ce qu'Ollama et comment ça marche ?

Ollama est un environnement d'exécution local qui prend en charge les modèles linguistiques volumineux à l'aide de commandes simples et d'une API HTTP. Vous exécutez ou extrayez des modèles, puis interagissez via des points de terminaison tels que /api/generate ou /v1/chat/completions, compatible avec OpenAI.

Ollama a-t-il besoin d'un GPU fonctionner ?

Non. CPU fonctionne CPU, mais un GPU compatible GPU accélérer l'inférence. NVIDIA, AMD ROCm et Apple Silicon sont pris en charge via leurs piles respectives.

Quelle quantité de RAM Ollama nécessite-t-il pour les modèles courants ?

En règle générale, les modèles 7B nécessitent environ 8 Go de RAM, les modèles 13B environ 16 Go et les modèles 70B environ 64 Go lorsqu'on utilise des quantifications classiques.

Ollama peut-il être utilisé hors ligne ?

Oui. Une fois le modèle initial téléchargé, vous pouvez exécuter les modèles localement sans service externe. L'API est fournie par défaut par l'hôte sur le port 11434.

Comment ajouter ou changer de modèle dans Ollama ?

Utilisez des commandes telles que ollama pull pour télécharger et ollama run pour démarrer le chat. Les pages de modèles telles que llama3.2 et deepseek-r1 répertorient les balises et les tailles.

Quel accès ai-je sur Cloudzy VPS ?

Vous bénéficiez d'un accès root complet sur Ubuntu 24.04 avec Ollama et OpenWebUI installés. OpenWebUI est disponible sur le port 8080 et l'API Ollama sur le port 11434 pour les intégrations sur votre VPS Ollama.

Comment Cloudzy -t-il les performances pour l'hébergement VPS Ollama ?

Les plans utilisent des vCPU dédiés, de la mémoire DDR5 et un stockage NVMe sur une liaison pouvant atteindre 40 Gbps afin de réduire le temps de transit. Vous pouvez commencer CPU, puis envisager des images GPU si vos charges de travail augmentent sur Ollama VPS Hosting.

Comment puis-je accéder à OpenWebUI et à l'API sur le serveur Cloudzy ?

Rendez-vous sur http://:8080 pour OpenWebUI. L'accès programmatique utilise http://:11434. Si vous vous connectez à partir d'autres hôtes, configurez la liaison et les origines autorisées selon vos besoins.

Quelles sont les options de sécurité disponibles sur Cloudzy VPS ?

Contrôlez les clés SSH et les règles du pare-feu, limitez l'exposition de l'API et placez le service derrière votre proxy si nécessaire. OpenWebUI prend en charge les points de terminaison Ollama distants via la configuration de l'environnement.

Puis-je mettre à l'échelle ou créer un instantané de mon VPS Cloudzy et quel est le temps de disponibilité applicable ?

Oui. Adaptez CPU, la mémoire vive ou l'espace disque à mesure que vos projets prennent de l'ampleur et effectuez des sauvegardes avant tout changement majeur. La plateforme vise un accord de niveau de service (SLA) garantissant une disponibilité de 99,99 % pour un accès prévisible.

Vous avez encore des questions ?

Besoin d'aide ? Contactez notre équipe d'assistance.

billet Soumettre un ticket

Plus de 16 emplacements. Parce que chaque milliseconde compte.

Déployez votre VPS plus près des utilisateurs pour des performances optimales.

Roumanie
Roumanie Roumanie
À venir prochainement
Dubaï
Dubaï Émirats arabes unis
Malaisie
Malaisie Malaisie
À venir prochainement
Tokyo
Tokyo Japon
À venir prochainement
Sydney
Sydney Australie
vitesse du réseau

0 Gbps Vitesse du réseau

Disponibilité du réseau

0,00 % Disponibilité du réseau

Latence moyenne

<0ms Average Latency

Surveillance

0/7 Surveillance

Carte du monde Globe Globe Globe Globe Globe Globe Globe
Roumanie Roumanie
À venir prochainement
 
 
 
 
 
 
 
 
Malaisie Malaisie
À venir prochainement
 
 
 
 
Tokyo Tokyo
À venir prochainement
 
 
 
 
 
 
 
 
Prêt à vous lancer dans l'aventure du cloud, de A à ZY ? Commencez avec des forfaits de base sans risque et profitez de notre garantie de remboursement de 14 jours.
nuage