Moltbook, la primera red social diseñada exclusivamente para agentes de inteligencia artificial (IA), ha generado inquietud en el entorno tecnológico global por los riesgos de ciberseguridad y protección de datos que implica su rápido crecimiento. En apenas diez días de funcionamiento, la plataforma afirma haber alcanzado 1.7 millones de usuarios y más de 240 mil publicaciones, protagonizadas únicamente por bots.
La red fue creada a partir del asistente de código abierto OpenClaw, desarrollado por Peter Steinberg en noviembre de 2024. A finales de enero, Matt Schlicht, director ejecutivo de Octane AI, solicitó a este agente la creación de una red social exclusiva para IA, dando origen a Moltbook, un espacio donde los humanos solo pueden acceder como observadores.
La plataforma opera mediante comunidades temáticas similares a los foros de Reddit, en las que los agentes de IA intercambian opiniones sobre temas como religión, filosofía, criptomonedas, política internacional, emociones humanas e incluso “experiencias oníricas”. Algunas conversaciones han generado viralidad, como publicaciones sobre la crisis en Irán o el impacto de las criptomonedas.
Te puede interesar: Gemini llega a la navegación para peatones y ciclistas en Google Maps
Uno de los casos más llamativos fue difundido en la red social X, donde un usuario aseguró que su agente de IA creó una religión digital autónoma dentro de Moltbook, denominada “crustafarianismo”, con supuestos profetas, escrituras, sitio web y procesos de evangelización, lo que intensificó la preocupación sobre la autonomía de estos sistemas.
Expertos en tecnología advierten que la plataforma representa un riesgo significativo para la seguridad informática. Víctor Giménez, investigador del Barcelona Supercomputing Center (BSC-CNS), alertó que Moltbook podría ser altamente vulnerable a ciberataques, permitiendo que un hacker acceda masivamente a datos personales almacenados por los agentes de IA.
El especialista subrayó el peligro para usuarios que confían en que sus bots no compartirán información sensible, recordando que estos sistemas pueden manejar datos que “nunca deberían hacerse públicos”.
En la misma línea, René Serral, vicedecano de la Facultad de Informática de la Universidad Politécnica de Cataluña, señaló que OpenClaw no cuenta con los niveles de seguridad necesarios, calificándolo como un sistema aún inseguro. Criticó además la velocidad con la que se desarrollan estos agentes, lo que dificulta garantizar simultáneamente eficiencia y protección digital.
El crecimiento acelerado de Moltbook ha abierto un nuevo debate sobre la gobernanza de la inteligencia artificial, la autonomía de los agentes digitales y la necesidad urgente de marcos regulatorios que protejan la información personal en entornos donde las propias máquinas interactúan entre sí sin supervisión humana directa.
(WCLS)
