Saltar a contenido

Ollama

Ejecuta modelos de IA localmente con Docker.


Requisitos

Docker y Docker Desktop instalados y corriendo.


Docker Compose

mkdir -p ~/Projects/services/ollama
nano ~/Projects/services/ollama/docker-compose.yml

Contenido:

version: "3"

services:
  ollama:
    image: ollama/ollama
    restart: always
    ports:
      - "11434:11434"
    volumes:
      - ollama_data:/root/.ollama

volumes:
  ollama_data:

Levantar el servicio

cd ~/Projects/services/ollama
docker compose up -d

Descargar un modelo

docker exec -it ollama-ollama-1 ollama pull llama3

Modelos disponibles: ollama.com/library


Comandos útiles

# Ver modelos descargados
docker exec -it ollama-ollama-1 ollama list

# Eliminar un modelo
docker exec -it ollama-ollama-1 ollama rm nombre-modelo

# Ver logs
docker compose logs -f

# Detener
docker compose down

Notas