Open WebUI Docker Compose: Tu ChatGPT Privado con IA Local 2025

Open WebUI Docker Compose interfaz de IA local privada

¿Buscas una alternativa privada a ChatGPT que funcione completamente en tu servidor? Open WebUI Docker Compose es la solución perfecta para ejecutar modelos de inteligencia artificial de forma local, sin enviar datos a terceros y con total control sobre tu información.

En esta guía completa aprenderás a desplegar Open WebUI con Ollama usando Docker Compose, configurar modelos de IA como Llama, Gemma o Mixtral, y disfrutar de una interfaz moderna similar a ChatGPT pero completamente autohospedada.

¿Qué es Open WebUI?

Open WebUI es una plataforma de interfaz web autohospedada y extensible diseñada para operar completamente offline. Con más de 50,000 estrellas en GitHub, se ha convertido en la solución más popular para interactuar con modelos de lenguaje grandes (LLMs) de forma local.

Esta herramienta funciona como una capa de interfaz para runners de IA como Ollama, OpenAI API, LMStudio y otros, permitiéndote chatear con modelos de inteligencia artificial desde tu navegador sin depender de servicios cloud.

Ventajas de Usar Open WebUI Docker Compose

Implementar esta solución ofrece beneficios significativos sobre alternativas cloud:

Privacidad total: Tus conversaciones y datos nunca abandonan tu servidor. Perfecto para información sensible o proyectos confidenciales.

Sin costes recurrentes: A diferencia de ChatGPT Plus o Claude Pro, no hay suscripciones mensuales. Solo necesitas hardware local.

Múltiples modelos: Ejecuta y compara diferentes LLMs simultáneamente: Llama 3, Mistral, Gemma, Phi y más.

Personalización completa: Crea personajes personalizados, agentes especializados y herramientas adaptadas a tus necesidades.

Offline: Funciona sin conexión a internet una vez descargados los modelos.

Requisitos Previos

Antes de instalar, verifica que tu sistema cumple estos requisitos:

  • Docker 27.4.0 o superior con Compose v2+
  • Al menos 10 GB de espacio libre en disco
  • 8 GB de RAM mínimo (16 GB recomendado para modelos grandes)
  • CPU moderna o GPU Nvidia (opcional, pero mejora rendimiento)

Para equipos con GPU Nvidia, los modelos se ejecutarán significativamente más rápido gracias a la aceleración por hardware.

Instalación con Open WebUI Docker Compose

Configuración Básica

Crea un directorio para tu proyecto y dentro un archivo docker-compose.yml:

services:
  ollama:
    image: ollama/ollama:latest
    ports:
      - 11434:11434
    volumes:
      - ollama:/root/.ollama
    container_name: ollama
    tty: true
    restart: unless-stopped

  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    volumes:
      - open-webui:/app/backend/data
    depends_on:
      - ollama
    ports:
      - 3000:8080
    environment:
      - 'OLLAMA_BASE_URL=http://ollama:11434'
      - 'WEBUI_SECRET_KEY='
    extra_hosts:
      - host.docker.internal:host-gateway
    restart: unless-stopped

volumes:
  ollama: {}
  open-webui: {}

Con Soporte GPU Nvidia

Si dispones de una tarjeta gráfica Nvidia con CUDA, usa esta configuración optimizada:

services:
  ollama:
    image: ollama/ollama:latest
    ports:
      - 11434:11434
    volumes:
      - ollama:/root/.ollama
    container_name: ollama
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all
              capabilities: [gpu]
    restart: unless-stopped

  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    volumes:
      - open-webui:/app/backend/data
    depends_on:
      - ollama
    ports:
      - 3000:8080
    environment:
      - 'OLLAMA_BASE_URL=http://ollama:11434'
      - 'WEBUI_SECRET_KEY=tu-clave-secreta-aqui'
    restart: unless-stopped

volumes:
  ollama: {}
  open-webui: {}

Iniciar los Servicios

Ejecuta este comando desde el directorio que contiene tu docker-compose.yml:

docker compose up -d

Docker descargará las imágenes necesarias y levantará ambos contenedores en segundo plano. Este proceso puede tardar varios minutos la primera vez.

Descargar Modelos de IA

Una vez los contenedores están activos, necesitas descargar al menos un modelo de lenguaje. Los más populares son:

Modelos ligeros (ideales para pruebas):

docker compose exec ollama ollama pull smollm2:135m
docker compose exec ollama ollama pull phi:latest

Modelos de rendimiento medio:

docker compose exec ollama ollama pull llama3:8b
docker compose exec ollama ollama pull gemma:7b

Modelos avanzados (requieren más recursos):

docker compose exec ollama ollama pull llama3:70b
docker compose exec ollama ollama pull mixtral:8x7b

El tamaño de descarga varía desde 100 MB para modelos pequeños hasta 40 GB para los más potentes. Elige según tu hardware disponible.

Primer Acceso y Configuración

Abre tu navegador y accede a http://localhost:3000. La primera vez verás una pantalla de registro donde crearás tu cuenta de administrador.

Importante: El primer usuario registrado obtiene privilegios de administrador. Elige un email y contraseña seguros.

Tras iniciar sesión, selecciona uno de los modelos descargados en el desplegable superior y comienza a chatear. La interfaz es intuitiva y similar a ChatGPT.

Características Avanzadas

RAG Integrado (Retrieval Augmented Generation)

Sube documentos PDF, TXT o Markdown para que el modelo responda preguntas basándose en tu información. La herramienta incluye soporte para 9 bases de datos vectoriales diferentes.

Generación de Imágenes

Integra DALL-E, Stable Diffusion (vía AUTOMATIC1111) o ComfyUI para generar imágenes desde la misma interfaz de chat.

Búsqueda Web

Conecta proveedores de búsqueda como Google, DuckDuckGo o Brave para que el modelo acceda a información actualizada de internet.

Control de Acceso

Configura roles y permisos para equipos. Soporta LDAP, Active Directory y SCIM 2.0 para integraciones empresariales.

Python Function Calling

Crea herramientas personalizadas en Python que el modelo puede ejecutar automáticamente según el contexto de la conversación.

Mejores Prácticas de Seguridad

Establece WEBUI_SECRET_KEY: Genera una clave robusta para producción:

environment:
  - 'WEBUI_SECRET_KEY=tu-clave-aleatoria-de-32-caracteres'

Usa proxy inverso: Implementa Nginx Proxy Manager o Traefik para HTTPS y autenticación adicional.

Limita acceso externo: Si solo usas la aplicación localmente, no expongas el puerto 3000 al exterior. Mantén la línea ports: - 3000:8080 solo para acceso en LAN.

Backups regulares: Los volúmenes ollama y open-webui contienen modelos descargados y configuración. Realiza copias de seguridad periódicas.

Comparación: Open WebUI vs ChatGPT

CaracterísticaOpen WebUIChatGPT
PrivacidadTotal (local)Datos en servidores OpenAI
CosteGratis$20/mes (Plus)
Modelos disponiblesLlama, Mistral, Gemma, etc.GPT-3.5, GPT-4
OfflineNo
PersonalizaciónTotalLimitada
VelocidadSegún hardwareRápida (cloud)

Solución de Problemas Comunes

El contenedor no inicia:
Verifica que los puertos 3000 y 11434 no estén ocupados:

netstat -tuln | grep -E '3000|11434'

Modelos lentos:
Los LLMs grandes requieren RAM y CPU potentes. Prueba modelos más pequeños como phi:latest o considera añadir una GPU.

Error de conexión entre servicios:
Asegúrate que OLLAMA_BASE_URL apunta correctamente a http://ollama:11434. Docker Compose crea una red interna donde los servicios se comunican por nombre.

Espacio en disco insuficiente:
Los modelos pueden ocupar decenas de GB. Limpia modelos antiguos:

docker compose exec ollama ollama rm nombre-modelo

Preguntas Frecuentes (FAQ)

¿Puedo usar Open WebUI con modelos de OpenAI?
Sí, puedes configurar la aplicación para conectarse a la API de OpenAI, Claude u otros proveedores compatibles mediante variables de entorno.

¿Cuánta RAM necesito?
Mínimo 8 GB, pero 16 GB es recomendable para modelos de 7B parámetros. Modelos de 70B requieren 32 GB o más.

¿Es compatible con Mac y Windows?
Sí, funciona en cualquier sistema que soporte Docker. En Windows necesitarás WSL2 habilitado.

¿Puedo acceder desde dispositivos móviles?
Absolutamente. La interfaz web es responsive y funciona perfectamente en smartphones y tablets conectados a tu red local.

¿Cómo actualizo a nuevas versiones?
Ejecuta docker compose pull seguido de docker compose up -d para descargar y aplicar actualizaciones automáticamente.

Conclusión

Implementar tu propia instancia de inteligencia artificial privada es más accesible que nunca gracias a esta combinación de tecnologías. La privacidad, el control total y la ausencia de costes recurrentes hacen de esta solución una alternativa seria a servicios cloud.

Con esta guía tienes todo lo necesario para empezar a experimentar con modelos de lenguaje localmente. Explora diferentes LLMs, prueba características avanzadas como RAG o generación de imágenes, y disfruta de una plataforma de IA completamente bajo tu control.

Para más tutoriales sobre servicios autohospedados con Docker, visita nuestra categoría Docker Compose.


Enlaces útiles:

Avatar

Por Mid

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x