Ollama
Ejecuta modelos de IA localmente con Docker.
Requisitos
Docker y Docker Desktop instalados y corriendo.
Docker Compose
Contenido:
version: "3"
services:
ollama:
image: ollama/ollama
restart: always
ports:
- "11434:11434"
volumes:
- ollama_data:/root/.ollama
volumes:
ollama_data:
Levantar el servicio
Descargar un modelo
Modelos disponibles: ollama.com/library
Comandos útiles
# Ver modelos descargados
docker exec -it ollama-ollama-1 ollama list
# Eliminar un modelo
docker exec -it ollama-ollama-1 ollama rm nombre-modelo
# Ver logs
docker compose logs -f
# Detener
docker compose down