Hospedagem VPS Ollama

Hospedagem VPS Ollama

Ollama, pré-carregado e privado

O seu próprio servidor Ollama pré-carregado e privado no Ubuntu 24.04 com OpenWebUI pré-instalado. Use os modelos pré-carregados para testar rapidamente, baixe novos conforme necessário e mantenha controle root total sobre portas, serviços e instantâneos no NVMe com um link de até 40 Gbps.

Excelente
Estrelas TrustPilot
Mais de 500 avaliações em

There’s a reason 121,000+ developers & businesses choose us.

Universidade de Toronto UTFR Ignyte Agência 5pm Zare Webhades
Proteção 100% contra DDoS
0 dias

Garantia de reembolso

Suporte 24 horas por dia, 7 dias por semana
0/0

Suporte online

Velocidade da rede
0 Gbps

Velocidade da rede

Tempo de atividade da rede
0%

Tempo de atividade da rede

PREÇOS

Preços transparentes. Sem taxas ocultas

Há (definitivamente mais do que) uma razão para mais de 0 desenvolvedores e empresas nos escolherem.

  • Anualmente (40% de desconto)
  • Mensal (desconto de 25%)
  • Por hora (20% de desconto)
  • Padrão
VPS Ollama

O que é o Ollama VPS?

O Ollama é um runtime leve para executar grandes modelos de linguagem localmente com comandos simples e uma API HTTP. No Cloudzy, ele é fornecido no Ubuntu 24.04 LTS com o OpenWebUI pré-instalado para uma interface de chat limpa e baseada no navegador. Você obtém acesso root completo, além de modelos iniciais, como llama3.2 e deepseek r1, para que possa começar a experimentar e adicionar mais com o ollama pull. Aceda à aplicação web na porta 8080 e à API Ollama na 11434 para integrar com ferramentas e código. Os recursos têm o tamanho certo para testes privados ou uso em pequenas equipas, com vCPUs dedicadas, memória DDR5 e armazenamento NVMe em um link de até 40 Gbps. Os instantâneos tornam as reversões seguras e pode dimensionar CPU, a RAM ou o disco à medida que as necessidades crescem. Se deseja um serviço de IA privado que possa controlar, o Ollama VPS Hosting Cloudzyoferece uma base simples para executar chat, embeddings e RAG simples sem depender de nuvens de terceiros.

VPS Ollama
Recursos do Ollama VPS
  • verificar
    Proteção contra DDoS
  • verificar
    Vários métodos de pagamento disponíveis
  • verificar
    Acesso administrativo total
  • verificar
    Conectividade sem latência
  • verificar
    Localização GPU em Dallas
servidor
VPS ativo 0
escudo
0 Garantia de reembolso
VPS Ollama

Porquê escolher a hospedagem VPS Ollama Cloudzy?

Descubra o poder da flexibilidade e do desempenho

Pronto para o lançamento

Ubuntu 24.04 LTS com OpenWebUI e Ollama pré-instalados, além de modelos iniciais para testar imediatamente.

desfoque

Otimizado para desempenho

vCPUs dedicadas, NVMe e DDR5 ajudam a manter respostas rápidas durante os horários de pico.

desfoque

Controlo total

Acesso root para portas, serviços systemd, variáveis de ambiente e automação da primeira inicialização com cloud-init.

desfoque

Padrões limpos para múltiplos utilizadores

Use contas OpenWebUI, vincule a API e separe o trabalho com instantâneos e armazenamento por modelo.

desfoque

Fundação confiável

Provisionamento rápido, IP estático e um SLA com 99,99% de tempo de atividade para laboratórios, testes ou pequenas utilizações de produção.

desfoque
Casos de uso do Ollama VPS Cloudzy

Para quem é?

 

Pesquisadores de IA testam modelos de raciocínio

Alterne entre modelos como deepseek-r1 e llama3.2, registre os resultados e mantenha as experiências privadas com root completo e instantâneos.

Implemente agora
 

Equipas focadas na privacidade que lidam com rascunhos confidenciais

Mantenha os prompts e os resultados num servidor dedicado com IP estático, controlo de firewall e alojamento regional para localização de dados.

Implemente agora
 

Engenheiros de produto Prototipagem de funcionalidades de IA

Chame a API 11434 a partir dos serviços, itere com o OpenWebUI e faça um snapshot antes de cada alteração para proteger os estados de funcionamento.

Implemente agora
 

Grupos de operações de ML padronizando ambientes

Crie o cloud-init, defina unidades de serviço e replique uma imagem limpa em todas as regiões para implementações previsíveis e restaurações rápidas.

Implemente agora
 

Educadores e instrutores de laboratório

Ofereça aos alunos uma interface OpenWebUI consistente com acesso root para aprender a fazer pull requests, prompts e exercícios básicos de RAG.

Implemente agora
 

Pequenas equipas a criar assistentes internos

Execute conversas privadas, incorporações e perguntas e respostas simples sobre documentos com armazenamento NVMe e vCPUs dedicadas que você pode dimensionar posteriormente.

Implemente agora

Como usar?

Como configurar um VPS Ollama

Não sabe por onde começar? Com a hospedagem VPS Ollama Cloudzy, você acessa o Ubuntu 24.04 LTS com o Ollama e o OpenWebUI instalados. SSH como root, revise /rootcloudzy e confirme se os serviços estão ativos. Abra http://:8080 para o OpenWebUI e acesse a API em http://:11434. Puxe ou alterne modelos conforme necessário. Se pretender aceder à API a partir de outros hosts ou através de um proxy, defina as variáveis de ambiente e regras de firewall apropriadas. Os passos abaixo cobrem o básico.

Fundo escuro pontilhado com um grande logótipo Ollama branco centralizado; acima dele, a palavra «PULL» e uma seta para baixo, sugerindo puxar uma imagem ou modelo.
Depoimento

Cloudzy, através das palavras dos nossos utilizadores

Descubra como os programadores 121218 integram Cloudzy seu fluxo de trabalho.

Engenharia sem interrupções

Cloudzy a nossa equipa de engenharia se concentre na inovação, e não na infraestrutura. Utilizamos os seus servidores de alto desempenho para gerir ficheiros grandes e licenças de software, e não tivemos nenhum problema técnico ou tempo de inatividade desde o primeiro dia.

Eric
Eric

Capitão da equipa da UTFR, Universidade de Toronto

Perguntas frequentes

Perguntas frequentes | Ollama VPS

O que é o Ollama e como funciona?

O Ollama é um ambiente de execução local que serve grandes modelos de linguagem por meio de comandos simples e uma API HTTP. Você executa ou extrai modelos e, em seguida, interage por meio de pontos finais, como /api/generate ou /v1/chat/completions compatível com OpenAI.

O Ollama precisa de uma GPU funcionar?

Não. CPU funciona CPU, mas uma GPU compatível GPU acelerar a inferência. NVIDIA, AMD ROCm e Apple Silicon são suportados através das suas respetivas pilhas.

Quanta memória RAM o Ollama precisa para modelos comuns?

Como regra geral, os modelos 7B tendem a precisar de cerca de 8 GB de RAM, os 13B de cerca de 16 GB e os 70B de cerca de 64 GB quando se utilizam quantizações típicas.

O Ollama pode ser usado offline?

Sim. Após o download inicial dos modelos, pode executá-los localmente sem um serviço externo. A API é servida a partir do host na porta 11434 por predefinição.

Como adicionar ou alternar modelos no Ollama?

Use comandos como ollama pull para fazer o download e ollama run para iniciar o chat. Páginas de modelos como llama3.2 e deepseek-r1 listam tags e tamanhos.

Que tipo de acesso tenho no Cloudzy VPS?

Receberá acesso root completo no Ubuntu 24.04 com o Ollama e o OpenWebUI instalados. O OpenWebUI está disponível na porta 8080 e a API do Ollama na porta 11434 para integrações no seu VPS Ollama.

Como é que Cloudzy o desempenho do Ollama VPS Hosting?

Os planos utilizam vCPUs dedicadas, memória DDR5 e armazenamento NVMe numa ligação de até 40 Gbps para manter o tempo de ida e volta baixo. Pode começar CPU e, em seguida, considerar imagens GPU se as suas cargas de trabalho se expandirem na hospedagem VPS Ollama.

Como posso aceder ao OpenWebUI e à API no servidor Cloudzy ?

Visite http://:8080 para o OpenWebUI. O acesso programático utiliza http://:11434. Se estiver a ligar a partir de outros hosts, configure a ligação e as origens permitidas conforme necessário.

Quais opções de segurança estão disponíveis no Cloudzy VPS?

Controle as chaves SSH e as regras de firewall, restrinja a exposição da API e coloque o serviço atrás do seu proxy, se necessário. O OpenWebUI suporta pontos finais Ollama remotos através da configuração do ambiente.

Posso dimensionar ou criar um instantâneo do meu VPS Cloudzy e qual é o tempo de atividade aplicável?

Sim. Escale CPU, a RAM ou o disco à medida que os projetos crescem e faça snapshots antes de grandes alterações. A plataforma tem como meta um SLA de 99,99% de tempo de atividade para acesso previsível.

Ainda tem dúvidas?

Precisa de ajuda? Entre em contacto com a nossa equipa de suporte.

bilhete Enviar um ticket

Mais de 16 locais. Porque cada milésimo de segundo é importante

Implemente o seu VPS mais perto dos utilizadores para obter um desempenho ideal.

Nova Iorque
Nova Iorque Estados Unidos
Dallas
Dallas Estados Unidos
Miami
Miami Estados Unidos
Las Vegas
Las Vegas Estados Unidos
Los Angeles
Los Angeles Estados Unidos
Amesterdão
Amesterdão Países Baixos
Roménia
Roménia Roménia
Em breve
Dubai
Dubai Emirados Árabes Unidos
Malásia
Malásia Malásia
Em breve
Tóquio
Tóquio Japão
Em breve
Sydney
Sydney Austrália
velocidade da rede

0 Gbps Velocidade da rede

Tempo de atividade da rede

0,00% Tempo de atividade da rede

Latência média

<0ms Average Latency

Monitorização

0/7 Monitorização

Mapa-múndi Globo Globo Globo Globo Globo Globo Globo
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Roménia Roménia
Em breve
 
 
 
 
 
 
 
 
 
 
 
 
Malásia Malásia
Em breve
 
 
 
 
Tóquio Tóquio
Em breve
 
 
 
 
 
 
 
 
Pronto para começar a sua jornada na nuvem, de A a ZY? Comece com planos básicos sem riscos e aproveite a nossa garantia de reembolso de 14 dias.
nuvem