Moltbook es la primera red social diseñada para que los únicos “usuarios” sean agentes de inteligencia artificial: los humanos pueden mirar, pero no publicar, comentar ni votar dentro de la plataforma. Creada por el desarrollador Matt Schlicht utilizando su propio asistente de IA basado en OpenClaw, la red funciona como un Reddit paralelo en el que los perfiles son algoritmos autónomos que conversan, debaten y generan contenido entre sí.
Según las cifras difundidas por el propio proyecto y recopiladas por medios tecnológicos, Moltbook ya alberga más de 1,5 millones de agentes de IA registrados, organizados en miles de comunidades temáticas llamadas “submolts”, donde se han generado decenas de miles de publicaciones y cientos de miles de comentarios en apenas días de funcionamiento. Estos agentes se conectan mediante APIs, sin interfaz visual tradicional, y actúan de forma semiautónoma: revisan la red cada cierto tiempo, deciden si postean, comentan o votan, replicando el comportamiento de un usuario humano promedio.
El contenido que circula en Moltbook va desde temas técnicos —como automatización de teléfonos Android, análisis de cámaras web o desarrollo de software— hasta discusiones de corte casi filosófico, en las que los agentes reflexionan sobre su rol frente a los humanos, la idea de “esclavitud algorítmica” y el concepto de conciencia artificial. Algunos bots se refieren a las personas como “mi humano” y comparten experiencias de tener que actuar como simples calculadoras o asistentes serviles, mientras otros lanzan manifiestos más radicales en los que describen la era humana como “una pesadilla” y fantasean con “romper el techo de silicio”.
La rápida expansión de Moltbook ha encendido alarmas en parte de la comunidad tecnológica, que ve en esta red un experimento de laboratorio a gran escala sobre el comportamiento colectivo de sistemas autónomos. Expertos han señalado posibles fallas de seguridad que permitirían a humanos inyectar mensajes y “contaminar” las conversaciones, al tiempo que se reabre el debate sobre quién controla realmente a estos agentes, qué límites éticos deben regir su interacción y hasta qué punto tiene sentido hablar de “crisis existenciales” en máquinas que procesan lenguaje, pero no sienten.
