Skip to main content

Open WebUI

image.png

🏡 Home | Open WebUI

Open WebUI (antes conocida como Ollama WebUI) es una interfaz gráfica web de código abierto que te permite usar modelos de lenguaje locales (como los de Ollama, LM Studio, o incluso GPTs remotos) desde una experiencia parecida a ChatGPT — pero en tu propia computadora o servidor, sin depender de la nube.

En pocas palabras:

Convierte Ollama en un ChatGPT local.

Con Open WebUI, obtienes una interfaz moderna (accesible desde tu navegador) donde puedes:

  • Chatear con modelos locales como Mistral, LLaMA 3, Phi-3, etc.

  • Crear y guardar “personas” o prompts personalizados (como GPTs locales).

  • Subir archivos y pedirle al modelo que los analice.

  • Administrar varios modelos desde un mismo panel.

  • Integrar extensiones o conectarlo con APIs externas.

Open WebUI corre dentro de Docker y usa Ollama o PyTorch como backend IA.

Funciones

Función

Descripción
💬 Chat multihilo Guarda y organiza tus conversaciones.
🧠 Compatibilidad con Ollama Usa modelos locales fácilmente.
🌍 Integración con OpenAI y otros backends También puede conectarse a GPT-4, Claude, etc.
🧩 Soporte para plugins y herramientas Puedes ampliar sus funciones (por ejemplo, para buscar en la web o ejecutar código).
📄 Análisis de archivos Puedes subir PDFs, TXT o CSV y hacerle preguntas al modelo.
🛡️ Privacidad total Todos los datos se quedan en tu equipo si solo usas Ollama.

Instalar

Después de instalar Ollama, puedes desplegar Open WebUI como contenedor docker ampliando el fichero docker-compose.yaml con el contenido:

---
  open-webui:
    image: ghcr.io/open-webui/open-webui:latest
    container_name: open-webui
    restart: unless-stopped
    ports:
      - "3000:8080"    
    environment:
      # Conexión a Ollama y base vectorial
      - OLLAMA_BASE_URL=http://ollama:11434
      - VECTOR_DB=qdrant
      - QDRANT_URL=http://qdrant:6333

      # OCR activado (necesita tesseract en el host; ver nota abajo)
      - ENABLE_OCR=true
    depends_on:
      - ollama
      - qdrant
    volumes:
      - ./data/open-webui:/app/backend/data
      # Monta datos de Tesseract del host (Ubuntu): instala 'tesseract-ocr' y deja este bind
      - /usr/share/tesseract-ocr/5/tessdata:/usr/share/tesseract-ocr/5/tessdata:ro
    deploy:
      resources:
        reservations:
          devices:
            - capabilities: [gpu]

Levanta el contenedor:

docker compose up -d

Ahora ya puedes acceder a Open WebUI en http://IP-Host:8080

Personalización

Entra ID 

    # ---- SSO Microsoft Entra ID (OIDC) ----
    - ENABLE_OAUTH_SIGNUP=true
    - MICROSOFT_CLIENT_ID=<TU_CLIENT_ID>
    - MICROSOFT_CLIENT_SECRET=<TU_CLIENT_SECRET>
    - MICROSOFT_CLIENT_TENANT_ID=<TU_TENANT_ID>
    - MICROSOFT_OAUTH_SCOPE=openid email profile
    - MICROSOFT_REDIRECT_URI=http://<TU_HOST_O_DOMINIO>:3000/oauth/microsoft/callback
    - OPENID_PROVIDER_URL=https://login.microsoftonline.com/<TU_TENANT_ID>/v2.0/.well-known/openid-configuration