Open WebUI

Open WebUI (antes conocida como Ollama WebUI) es una interfaz gráfica web de código abierto que te permite usar modelos de lenguaje locales (como los de Ollama, LM Studio, o incluso GPTs remotos) desde una experiencia parecida a ChatGPT — pero en tu propia computadora o servidor, sin depender de la nube.
En pocas palabras:
Convierte Ollama en un ChatGPT local.
Con Open WebUI, obtienes una interfaz moderna (accesible desde tu navegador) donde puedes:
-
Chatear con modelos locales como Mistral, LLaMA 3, Phi-3, etc.
-
Crear y guardar “personas” o prompts personalizados (como GPTs locales).
-
Subir archivos y pedirle al modelo que los analice.
-
Administrar varios modelos desde un mismo panel.
-
Integrar extensiones o conectarlo con APIs externas.
Open WebUI corre dentro de Docker y usa Ollama o PyTorch como backend IA.
Funciones
|
Función |
Descripción |
|---|---|
| 💬 Chat multihilo | Guarda y organiza tus conversaciones. |
| 🧠 Compatibilidad con Ollama | Usa modelos locales fácilmente. |
| 🌍 Integración con OpenAI y otros backends | También puede conectarse a GPT-4, Claude, etc. |
| 🧩 Soporte para plugins y herramientas | Puedes ampliar sus funciones (por ejemplo, para buscar en la web o ejecutar código). |
| 📄 Análisis de archivos | Puedes subir PDFs, TXT o CSV y hacerle preguntas al modelo. |
| 🛡️ Privacidad total | Todos los datos se quedan en tu equipo si solo usas Ollama. |
Instalar
Después de instalar Ollama, puedes desplegar Open WebUI como contenedor docker de la siguiente manera
crea un fichero docker-compose.yaml con el contenido:
services:
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
restart: unless-stopped
network_mode: "host"
environment:
- OLLAMA_BASE_URL=http://127.0.0.1:11434
volumes:
- open-webui:/app/backend/data
deploy:
resources:
reservations:
devices:
- capabilities: [gpu]
volumes:
open-webui:
Levanta el contenedor:
docker compose up -d
Ahora ya puedes acceder a Open WebUI en http://IP-Host:8080