Ollama
Ollama chạy LLM cục bộ trên VPS của bạn. Kéo và phục vụ Llama 3, Mistral, Phi, Gemma và Qwen bằng một lệnh. AI tự lưu trữ không có khóa API, API REST tương thích với máy khách OpenAI. Con đường đơn giản nhất để suy luận riêng tư, được hơn 200.000 nhà phát triển sử dụng.
Phiên bản
Mới nhất
Hệ điều hành
Ubuntu Server 24.04 LTS
Tối thiểu. ĐẬP
8 GB
Loại IP
IPV4,IPV6
Thông tin thêm về Khoa học dữ liệu