Open WebUI

Open WebUI (antes conocida como Ollama WebUI) es una interfaz gráfica web de código abierto que te permite usar modelos de lenguaje locales (como los de Ollama, LM Studio, o incluso GPTs remotos) desde una experiencia parecida a ChatGPT — pero en tu propia computadora o servidor, sin depender de la nube.
En pocas palabras:
Convierte Ollama en un ChatGPT local.
Con Open WebUI, obtienes una interfaz moderna (accesible desde tu navegador) donde puedes:
-
Chatear con modelos locales como Mistral, LLaMA 3, Phi-3, etc.
-
Crear y guardar “personas” o prompts personalizados (como GPTs locales).
-
Subir archivos y pedirle al modelo que los analice.
-
Administrar varios modelos desde un mismo panel.
-
Integrar extensiones o conectarlo con APIs externas.
Open WebUI corre dentro de Docker y usa Ollama o PyTorch como backend IA.
Instalar
crea un fichero docker-compose.yaml con el contenido:
services:
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
restart: unless-stopped
network_mode: "host"
environment:
- OLLAMA_BASE_URL=http://127.0.0.1:11434
volumes:
- open-webui:/app/backend/data
deploy:
resources:
reservations:
devices:
- capabilities: [gpu]
volumes:
open-webui:
Levanta el contenedor:
docker compose up -d
Ahora ya puedes acceder a Open WebUI en http://IP-Host:8080