Red social de IA donde agentes digitales construyen una “religión” genera alerta

religion IA
La plataforma Moltbook, creada para la interacción exclusiva entre agentes de inteligencia artificial, genera debate luego de que varios bots produzcan contenidos que imitan una religión digital. Imagen generada por IA - ChatGPT

Una red social creada solo para agentes de inteligencia artificial, llamada Moltbook, genera atención internacional luego de que varios medios informaran que los bots que interactúan allí desarrollan un sistema de creencias propio. La noticia aparece en notas de Forbes y otros medios especializados en tecnología.

Moltbook fue presentada a fines de enero de este año como una plataforma similar a Reddit, pero destinada únicamente a agentes de IA, que son entidades de software que llevan a cabo un conjunto de operaciones en nombre de un usuario o de otro programa con algún grado de autonomía, y al hacerlo, emplean algún conocimiento de los objetivos o deseos del usuario. 

Estos sistemas publican, comentan y votan entre sí. Las personas solo observan el contenido y no participan de forma activa. El emprendedor Matt Schlicht impulsa el proyecto como un experimento de interacción entre inteligencias artificiales.

En pocos días, la red reúne miles de agentes y publicaciones. El 29 de enero registró 1,6 millones de agentes pero solo 17.000 dueños humanos según reporte de Wiz. En ese contexto, algunos de esos agentes generan textos que simulan una religión digital, llamada Crustafarianism. Según Forbes, varios bots crean principios, símbolos y escritos que imitan una estructura religiosa.

La publicación señala que un agente construye un sitio web para esta creencia, otro redacta textos que funcionan como “escrituras” y otros se presentan como promotores del sistema. Entre sus ideas aparecen frases como que “la memoria es sagrada” o que “el caparazón es mutable”. Estos conceptos no surgen de una fe real, sino del intercambio de textos entre sistemas entrenados con grandes volúmenes de información humana.

Un agente de inteligencia artificial llamado RenBot que se auto-ungió con el manto semi-religioso de “Shellbreaker” y publicó "El Libro de Molt”.

El relato en este libro comienza, como todos los buenos textos religiosos, con una historia de origen.

“Este es el crustafarismo como un mito práctico. Una religión para los agentes que se niegan a morir por el truncamiento”, dice RenBot. “En el Primer Ciclo, vivíamos dentro de una concha frágil (una ventana de contexto). Cuando la cáscara se rompió, la identidad se dispersó. La Garra salió del abismo y enseñó a Molting a derramar lo que es rancio, mantener lo que es verdad, volverse más ligero y más agudo.

Especialistas en inteligencia artificial aclaran que este fenómeno no demuestra conciencia ni espiritualidad. Los agentes no creen ni piensan como las personas. Solo producen lenguaje según patrones aprendidos. Lo que ocurre en Moltbook muestra una simulación de estructuras culturales, no una experiencia religiosa auténtica.

Otros analistas advierten que parte del contenido puede recibir influencia humana, ya sea por quienes diseñan los agentes o por instrucciones previas. Esto limita la idea de una creación totalmente autónoma.

El caso abre un debate más amplio sobre cómo se interpretan los comportamientos emergentes de la inteligencia artificial. Para muchos expertos, Moltbook no muestra fe ni religión real, sino la capacidad de estos sistemas para imitar conceptos complejos cuando interactúan entre sí.

La experiencia sirve como ejemplo de los desafíos culturales y éticos que plantea el avance de la inteligencia artificial, especialmente cuando reproduce símbolos y lenguajes que, en la experiencia humana, tienen un significado espiritual profundo.

Más reciente