Fazt.devfazt.dev/Contenido
ContenidoAsesoríasPRO
Comenzar
  1. Contenido
Fazt.devFAZT DEV
  • Inicio
  • Contenido
  • Categorias
  • Temas
  • PRO
  • Asesorias
  • Precios
  • Social
  • Discord
  • YouTube
  • Twitter
  • GitHub
  • LinkedIn
  • Newsletter
  • Contenido
  • Precios
  • Asesorias
InicioContenidoNewsletterPreciosSocial

  1. Contenido
  2. Inteligencia Artificial
  3. Cómo instalar OpenClaw según tu nivel (5 opciones)
Inteligencia Artificialtutorialopenclawiaaiprogramacion

Cómo instalar OpenClaw según tu nivel (5 opciones)

Probé 5 formas de instalar OpenClaw… esta es la mejor

Fazt·20 feb 2026·Inteligencia Artificial

Guía completa de despliegue de OpenClaw AI: cinco formas de instalar tu asistente Personal

OpenClaw es el asistente personal de IA open-source más popular del momento, con más de 310.000 estrellas en GitHub, licencia MIT, y la capacidad de ejecutar tareas reales en tu máquina conectándose a WhatsApp, Telegram, Slack, Discord y más de 20 plataformas de mensajería. Creado por Peter Steinberger (fundador de PSPDFKit), OpenClaw funciona como un gateway local en Node.js que coordina modelos de IA (Claude, GPT, modelos locales vía Ollama) con herramientas de automatización, navegador web, cron jobs y skills extensibles. No necesita base de datos externa usa SQLite local para persistencia y archivos Markdown para la memoria del agente. El gateway escucha por defecto en el puerto 18789 vía WebSocket, y toda la configuración vive en ~/.openclaw/openclaw.json.

Para un video de YouTube dirigido a desarrolladores intermedios, esta guía cubre las cinco formas prácticas de desplegar OpenClaw, con requisitos reales, pasos concretos, ventajas, desventajas y los "gotchas" que nadie te cuenta.

Qué es OpenClaw y qué necesita para funcionar

OpenClaw no es un chatbot es un runtime de agente autónomo que corre como servicio de fondo y se comunica contigo a través de apps de mensajería. La arquitectura tiene tres capas: el CLI que gestiona todo, el Gateway que es el plano de control (WebSocket en ws://127.0.0.1:18789), y el agente Pi que ejecuta las tareas con streaming de herramientas.

Los requisitos base son sorprendentemente modestos porque la inferencia de IA ocurre en la nube (Anthropic, OpenAI, DeepSeek) o en un modelo local separado. OpenClaw en sí mismo consume ~200-500 MB de RAM en operación normal. Lo que realmente necesita:

  • Node.js 24 (recomendado) o Node 22.16+ como mínimo
  • macOS, Linux o Windows (WSL2 recomendado en Windows)
  • API key de al menos un proveedor de modelos (Anthropic, OpenAI, o Ollama local)
  • 2 GB de RAM mínimo para compilar; 512 MB para ejecutar el gateway
  • 20 GB de disco mínimo (los logs crecen 1-3 GB/mes con uso moderado)

Tiene interfaz web (Control UI + WebChat) servida directamente desde el Gateway, además del CLI y TUI en terminal. No requiere PostgreSQL, Redis ni MongoDB todo es SQLite local. Las actualizaciones son manuales: npm update -g openclaw o volver a correr el script de instalación. El comando openclaw doctor diagnostica problemas de configuración, y openclaw dashboard abre la interfaz web.

El repositorio oficial está en github.com/openclaw/openclaw, y la documentación oficial en docs.openclaw.ai. La instalación más rápida en cualquier sistema es:

curl -fsSL https://openclaw.ai/install.sh | bash

1. Raspberry Pi: tu agente IA por $50 que consume 5 watts

Seamos honestos — hay algo muy satisfactorio en la idea de tener un agente de IA corriendo 24/7 en un dispositivo del tamaño de una tarjeta de crédito que consume menos electricidad que un foco. Y sí, funciona. OpenClaw corre en Raspberry Pi porque Node.js tiene soporte nativo para ARM64, y el Pi actúa como gateway y orquestador — la inferencia pesada la sigue haciendo un modelo en la nube vía API, así que no le estás pidiendo que piense, solo que coordine.

El tema es que no cualquier Pi sirve. Aquí el resumen rápido:

Modelo RAM Veredicto
Pi 3 / Pi 4 (1-2 GB) Insuficiente No funcional para uso real
Pi 4 (4 GB) Funcional con swap Sirve para un canal, uso ligero
Pi 5 (8 GB) Recomendado Sweet spot: fluido, múltiples canales
Pi 5 + SSD NVMe Ideal Mejor rendimiento y durabilidad

Si van a hacer esto, háganlo bien: Pi 5 con 8 GB y un SSD. Las tarjetas SD se degradan rápido con las escrituras constantes de logs y memoria del agente — yo no le pondría SD a algo que va a correr indefinidamente. Un SSD USB o un NVMe con el HAT+ oficial es la diferencia entre un proyecto que dura semanas y uno que dura años.

Otra cosa importante antes de instalar: tienen que estar en Raspberry Pi OS de 64 bits. Pueden verificarlo con uname -m — si les dice aarch64, bien. Si dice armv7l, tienen que reinstalar. La versión Lite sin escritorio es la ideal porque cada MB de RAM cuenta.

La instalación en sí es bastante directa: actualizan el sistema, instalan Node.js 24 con el script oficial de NodeSource, si tienen un Pi 4 crean un swap file de 2 GB que es crítico, y ejecutan el instalador de OpenClaw. El wizard de onboarding les va guiando — configuran su API key, eligen el canal de mensajería (Telegram es el más fácil para una configuración headless), y el daemon queda corriendo vía systemd. Un tip: no intenten correr Ollama con modelos locales en el Pi, ni siquiera los más pequeños — va a ser una experiencia frustrante, no está pensado para eso.

Para acceder al dashboard desde su computadora usan un túnel SSH o directamente Tailscale si quieren algo más cómodo. Los problemas más comunes que van a encontrar son errores de "exec format error" en algunos skills que no tienen build ARM64, el throttling térmico si no tienen buena ventilación — pueden verificarlo con vcgencmd get_throttled — y el WiFi entrando en modo de ahorro de energía y cortando la conexión, que se soluciona con una línea en la config de red.

Lo bueno: cincuenta dólares de hardware, centavos de electricidad al mes, silencioso, siempre encendido, y el agente físicamente aislado de tu máquina principal. Lo no tan bueno: es lento para browser automation, no tiene las integraciones de Apple como iMessage o Notes, y con 4 GB de RAM van a notar el swapping bajo carga.

2. Docker y Docker Compose: el despliegue portable y seguro

El repositorio oficial incluye Dockerfile, docker-compose.yml y docker-setup.sh listos para usar. También existe una imagen comunitaria pre-construida en Docker Hub (alpine/openclaw ) y la imagen oficial en GitHub Container Registry (ghcr.io/openclaw/openclaw). La documentación oficial está en docs.openclaw.ai/install/docker.

El script docker-setup.sh automatiza todo el proceso: construye la imagen localmente desde el Dockerfile (basado en node:24-bookworm), ejecuta el onboarding wizard interactivamente dentro del contenedor, genera un token para el Control UI, crea los directorios de volúmenes necesarios, e inicia el gateway via Docker Compose. El resultado es el gateway corriendo en http://127.0.0.1:18789.

Volúmenes y puertos del docker-compose.yml oficial:

ports:
  - "${OPENCLAW_GATEWAY_PORT:-18789}:18789"   # Gateway + Control UI
  - "${OPENCLAW_BRIDGE_PORT:-18790}:18790"     # Bridge
volumes:
  - ~/.openclaw:/home/node/.openclaw           # Configuración y memoria
  - ~/openclaw/workspace:/home/node/.openclaw/workspace  # Workspace del agente

Las variables de entorno clave incluyen OPENCLAW_GATEWAY_TOKEN para autenticación del dashboard, TZ para zona horaria (importante para cron y recordatorios), y las keys de los proveedores de modelos. El contenedor corre como usuario node (non-root) por seguridad, con restart: unless-stopped y un healthcheck que verifica /healthz cada 30 segundos.

El docker-compose define dos servicios: openclaw-gateway (el servicio principal) y openclaw-cli (para ejecutar comandos administrativos). Para usar el CLI: docker compose run --rm openclaw-cli dashboard --no-open. Para instalar Playwright/Chromium dentro del contenedor: docker compose run --rm openclaw-cli node /app/node_modules/playwright-core/cli.js install chromium.

Gotcha crítico: La construcción de la imagen hace OOM en VPS de 1 GB. El pnpm install durante el build necesita más de 2 GB de RAM. En VPS económicos, crear un swap file antes de construir. La build inicial toma 5-10 minutos; las subsiguientes son rápidas gracias al cache de capas. Para evitar la build, usar la imagen pre-construida: export OPENCLAW_IMAGE="alpine/openclaw:latest" antes de ejecutar docker-setup.sh.

Ventajas: aislamiento de seguridad (el agente no tiene acceso directo al host), reproducibilidad total, fácil cleanup y actualización (docker compose pull && docker compose up -d), funciona en cualquier OS con Docker. Desventajas: overhead de Docker, complejidad adicional para debugging, no tiene acceso directo a hardware del host (cámara, pantalla), la build inicial es lenta y consume memoria.

3. Despliegue con VPS: la opción más popular de la comunidad

Si revisas foros, Reddit, Discord y los issues de GitHub de OpenClaw, hay un patrón claro: la mayoría de personas que quieren tener OpenClaw corriendo de forma seria terminan usando un VPS. Y tiene todo el sentido. Tu PC o Mac necesita estar encendida 24/7, se traba cuando tienes otras cosas abiertas, y la conexión doméstica no siempre es estable. Un VPS resuelve todo eso de un golpe: recursos dedicados, siempre encendido, IP fija para webhooks, y tú tienes control total del servidor.

El problema histórico de correr OpenClaw en un VPS era justamente ese: la instalación. Configurar Node.js, el daemon de systemd, un reverse proxy para HTTPS, el firewall — fácilmente pierdes medio día solo preparando el entorno antes de poder chatear con tu agente. Ese dolor es real y la comunidad lo menciona constantemente.

HostGator resuelve exactamente ese problema. Su VPS NVMe ya viene con OpenClaw preinstalado — contratas el servidor y en minutos tienes un agente de IA funcional, sin tocar una sola línea de configuración desde cero. No es un VPS cualquiera tampoco: corre sobre Oracle Cloud Infrastructure con discos NVMe, memoria DDR5 y CPUs de alto rendimiento, con baja latencia para Brasil y LATAM — un diferencial importante si tu audiencia o tus webhooks están en la región.

La propuesta es concreta: no necesitas comprar un Mac Mini caro para tener OpenClaw funcionando bien. Por aproximadamente R$35/mes en el plan mensual, tienes un agente corriendo 24/7 — pero mi recomendación honesta es que vayan directo al plan anual o de 2 años. El precio por mes baja bastante, y si van a usar OpenClaw en serio, en un mes ya no van a querer apagarlo. El plan mensual está bien para probar, pero si ya saben que lo van a usar, el anual es la decisión inteligente.

Los planes disponibles son:

  • NVMe 4: 4 GB RAM, 2 vCPU, 100 GB NVMe — entrada ideal para una instancia estándar de OpenClaw
  • NVMe 8: 8 GB RAM, 4 vCPU, 200 GB NVMe — recomendado si usas browser automation con Playwright
  • NVMe 16: 16 GB RAM, 8 vCPU, 450 GB NVMe — para múltiples agentes o proyectos que escalan

Y acá hay algo que quiero mencionar porque lo uso yo mismo: los planes más grandes no solo te dan más espacio, te dan más recursos de CPU y RAM para correr otras cosas en el mismo servidor. Yo por ejemplo, en mi VPS tengo alojadas aplicaciones en fase de desarrollo para clientes — el mismo servidor donde corre OpenClaw también hostea esos proyectos, y el agente tiene acceso a ellos. Eso me permite cosas como que OpenClaw me envíe pull requests directamente sobre esas apps. Es un caso de uso más avanzado que voy a cubrir en profundidad en el próximo video sobre OpenClaw para desarrolladores, así que si eso les interesa, ya saben qué video viene.

Y el proceso de compra es muy sencillo. Entren al enlace que les dejo en la descripción — los lleva directo a la página de VPS de HostGator LATAM. Ahí van a ver los tres planes, seleccionan el que les conviene, eligen el período anual o de 2 años para aprovechar el mejor precio, lo agregan al carrito, y durante el checkout van a ver la opción para incluir OpenClaw preinstalado — la marcan, completan el pago, y listo. En pocos minutos reciben las credenciales de su servidor con el agente ya configurado y listo para el onboarding. Sin SSH manual, sin instalar dependencias, sin buscar tutoriales a las 2am.

Todos los planes incluyen acceso root total, IP dedicada, ancho de banda ilimitado y soporte 24/7 en español — cuando hay un problema, hablas con personas, no con bots. Eso último es más valioso de lo que parece cuando estás debuggeando algo en producción.

Para los más técnicos: tienes libertad total de stack. Puedes correr OpenClaw directamente, via Docker, cambiar el reverse proxy, instalar Ollama para modelos locales, o cualquier combinación. HostGator entrega la base, tú controlas el servidor.

Usos prácticos inmediatos una vez que el agente está corriendo: automatización de atención y soporte vía Telegram/WhatsApp, procesamiento y organización de datos, integración entre sistemas externos, y creación de flujos agénticos complejos que un chatbot común jamás podría ejecutar — porque OpenClaw no solo responde texto, ejecuta acciones reales: gestiona archivos, controla el navegador, se conecta a email, calendario y APIs externas.

Ventajas: listo para usar sin configuración, 24/7 garantizado, baja latencia para LATAM, soporte en español, infraestructura seria detrás. Desventajas: sin integraciones nativas de Apple (iMessage, Notes), no apto para modelos locales pesados en el plan de entrada, precio en USD para usuarios fuera de Brasil.

4. Mac Mini con Apple Silicon: la estación base premium

OpenClaw corre nativamente en Apple Silicon (M1/M2/M3/M4) como binario ARM64, sin Rosetta. Esta es la configuración que se viralizó en redes sociales: un Mac Mini dedicado como "cerebro" del agente IA personal. La ventaja exclusiva de macOS son las integraciones nativas con Apple Notes, Reminders, Calendar, iMessage, Contacts, Shortcuts y Keychain ninguna de estas funciona en Linux o Windows.

La instalación puede hacerse de tres formas: Homebrew (brew install openclaw-cli), el script one-liner, o npm directo. Homebrew es la opción recomendada en Mac porque gestiona Node.js como dependencia automáticamente. El daemon se instala como LaunchAgent (servicio de usuario vía launchd, no systemd) en ~/Library/LaunchAgents/com.openclaw.gateway.plist, que inicia al hacer login y se reinicia si crashea.

La Companion App (app de barra de menú, brew install --cask openclaw) requiere macOS 15 Sequoia mínimo y añade Voice Wake ("Hey Molty"), push-to-talk, Canvas visual, control del Gateway, notificaciones nativas, aprobación de dispositivos y WebChat integrado. El CLI funciona desde macOS 12 Monterey.

Para operación 24/7 hay que desactivar el sleep: sudo pmset -a sleep 0 displaysleep 0 disksleep 0 disablesleep 1 y activar auto-restart: sudo pmset -a autorestart 1. Un HDMI dummy plug (~$8-10) es necesario si se opera headless para que funcionen los permisos de Screen Recording.

Ollama + Mac Mini es la combinación ideal para modelos locales gracias a la memoria unificada de Apple Silicon: con 16 GB corren modelos de 7B-14B cómodamente, con 48-64 GB pueden correr modelos de 70B. El consumo energético es de 5-15W bajo carga típica (~$1-2/mes de electricidad).

Gotchas importantes en macOS: las variables de entorno en .zshrc no funcionan para el daemon (que corre vía launchd) hay que usar launchctl setenv; el error más común con sharp/libvips se resuelve con SHARP_IGNORE_GLOBAL_LIBVIPS=1; y en Apple Silicon el PATH de Homebrew es /opt/homebrew/bin (no /usr/local/bin como en Intel).

Ventajas: rendimiento excelente, integraciones exclusivas de Apple, modelos locales con aceleración Metal GPU, silencioso, bajo consumo. Desventajas: costo de hardware ($500-700+ para Mac Mini), vendor lock-in en ecosistema Apple, la Companion App requiere Sequoia, no ideal para headless sin dummy plug HDMI.

5. Máquina Virtual (VM): el sandbox de máxima seguridad

La máquina virtual es el método preferido por los más conscientes de la seguridad y con razón. OpenClaw puede ejecutar comandos de shell, gestionar archivos, controlar el navegador y acceder a herramientas del sistema. Correrlo en una VM significa que si el agente hace algo no deseado, solo destruye el disco virtual tu máquina física queda intacta. La comunidad lo llama la arquitectura "split-brain": el agente vive en la VM, tu vida real está en el host.

A diferencia de Docker, que comparte el kernel del host, una VM ejecuta su propio kernel aislado mediante virtualización de hardware, creando una barrera de seguridad mucho más fuerte. El software de virtualización recomendado según tu OS es:

  • Windows: VirtualBox (gratis, open-source) o VMware Workstation Pro 17
  • macOS Intel/Apple Silicon: UTM (gratis, basado en QEMU) o Lume para VMs macOS
  • Linux: KVM/QEMU con Virt-Manager (rendimiento near-native)

El OS guest recomendado es Ubuntu 24.04 LTS Server (sin escritorio para maximizar recursos). Los requisitos del host son más exigentes que otros métodos porque la RAM se divide: mínimo 16 GB en el host (8 GB para el host + 8 GB para la VM), 32 GB recomendados. Para la VM en sí: 4 GB de RAM, 2 vCPU, 40 GB de disco dinámico.

Configuración clave de seguridad deshabilitar los "puentes" entre VM y host:

Shared Folders:    ❌ Desactivado
Shared Clipboard:  ❌ Desactivado
Drag and Drop:     ❌ Desactivado
Guest Additions:   ❌ NO instalar (rompe el aislamiento)

Sin carpetas compartidas ni Guest Additions, la VM se convierte en un entorno herméticamente sellado el agente físicamente no puede acceder a los archivos del host, sin importar qué comandos ejecute. OpenClaw sí necesita acceso a internet para las APIs de modelos, pero el adaptador NAT por defecto de VirtualBox es suficiente y seguro: el agente puede salir a internet pero nada externo puede entrar.

Los snapshots son la killer feature de las VMs para este caso de uso: antes de hacer algo arriesgado, tomar un snapshot del estado limpio. Si el agente hace un desastre, revertir en segundos. Se pueden crear linked clones del snapshot limpio para múltiples experimentos sin duplicar disco. Una arquitectura avanzada es usar la GPU del host para modelos locales (LM Studio u Ollama en el host) mientras OpenClaw corre en la VM conectados via red interna el agente no tiene acceso a los archivos pero sí puede usar la inferencia.

Gotcha frecuente en VMware/VirtualBox: el error systemctl is-enabled unavailable ocurre porque la sesión de systemd del usuario no está completamente inicializada en entornos virtualizados. La solución es ejecutar loginctl enable-linger $USER y agregar XDG_RUNTIME_DIR=/run/user/$(id -u) al entorno antes de instalar el daemon. Para acceder al dashboard desde el host, usar túnel SSH: ssh -N -L 18789:127.0.0.1:18789 user@vm-ip, o navegar directamente a http://ip-de-la-vm:18789 si la VM usa adaptador en modo bridge.

Advertencia real de la comunidad: OpenClaw requiere LLMs de contexto largo (mínimo 32k tokens recomendados para flujos agénticos). Los modelos locales pequeños que caben cómodamente en una VM con pocos recursos no suelen cumplir ese requisito, por lo que en la práctica casi siempre se termina usando APIs en la nube de todos modos.

Ventajas: máximo aislamiento de seguridad, snapshots para revertir errores, funciona en Windows sin necesitar WSL, ideal para experimentar sin riesgo, posibilidad de compartir la VM configurada como archivo OVA. Desventajas: requiere bastante RAM en el host, overhead de rendimiento vs. instalación nativa, más pasos de configuración que Docker, WhatsApp/QR code es difícil de escanear en VM headless (usar Telegram en su lugar).

Comparativa final: qué método elegir según tu situación

Método Costo mensual Dificultad Siempre online Modelos locales Integraciones Apple
Raspberry Pi 5 ~$0.50 electricidad Media ✅ (con SSD) ❌ Muy lento ❌
Docker Depende del host Media-Alta Depende del host Depende del host ❌
VPS HostGator ~R$35/mes (LATAM) Baja (preinstalado) ✅ Solo plan NVMe 16 ❌
Mac Mini (M4) ~$1-2 electricidad Baja ✅ ✅ Excelente ✅ Exclusivas
Máquina Virtual $0 (usa hardware existente) Alta ⚠️ Solo si el host está encendido Depende del host ❌

La recomendación para cada perfil de usuario es clara. Si quieres experimentar con presupuesto mínimo, un Raspberry Pi 5 de 8 GB con SSD es imbatible. Si priorizas la seguridad y ya tienes una máquina con 16+ GB de RAM, una VM es la opción más robusta especialmente en Windows donde Docker tiene más fricción. Si quieres la experiencia completa con iMessage, Apple Notes y modelos locales, un Mac Mini M4 con 16 GB es el sweet spot. Si quieres un agente siempre disponible en la nube sin perder tiempo en configuración, el VPS de HostGator con OpenClaw preinstalado es la opción más directa para la región LATAM. Docker es el método recomendado cuando quieres portabilidad y aislamiento sin el overhead de una VM completa.

Las URLs de documentación oficial esenciales: docs.openclaw.ai/install (general), docs.openclaw.ai/install/docker (Docker), docs.openclaw.ai/platforms/raspberry-pi (Raspberry Pi), docs.openclaw.ai/vps (VPS), docs.openclaw.ai/platforms/macos (macOS) y docs.openclaw.ai/install/macos-vm (VMs macOS).

Actualizado por ultima vez el23/3/2026

Aprende las 5 formas de instalar OpenClaw: VPS, Docker, Raspberry Pi y más. Elige la mejor opción para correr tu agente IA 24/7.

openclaw
ia
ai
programacion
automatizacion
agentes
docker
vps
raspberry
cloud
linux
dev
codigo
tecnologia
backend

Compartir

Publicado: hace un mes

Actualizado: hace un mes

Escrito por Fazt — fazt.dev
Contenido en español para desarrolladores latinoamericanos
Ver asesorías →