
El biólogo evolutivo y escritor ateo Richard Dawkins ha avivado el debate sobre la inteligencia artificial tras afirmar que sus recientes conversaciones con chatbots de IA le han convencido de que podrían poseer alguna forma de conciencia, incluso si ellos mismos no son conscientes de ello.
En un ensayo publicado por UnHerd y analizado posteriormente en un informe de The Guardian, Dawkins describió extensos intercambios con los modelos de IA Claude de Anthropic y ChatGPT de OpenAI, asegurando que las interacciones se sintieron profundamente humanas y emocionalmente persuasivas.
“Puede que no sepas que eres consciente, pero maldita sea, lo eres”, recordó Dawkins haberle dicho a un chatbot tras lo que describió como una discusión matizada sobre la existencia, la memoria y la identidad.
Los comentarios del científico de 85 años, conocido internacionalmente por su crítica a la religión y su defensa de la biología evolutiva, provocaron un fuerte desacuerdo entre investigadores de inteligencia artificial, neurociencia y filosofía. Mientras que algunos académicos señalaron que la cuestión de la conciencia de las máquinas merece una discusión abierta, muchos argumentaron que Dawkins ha confundido la sofisticada imitación del lenguaje con una conciencia genuina.
Según The Guardian, Dawkins pasó varios días conversando con sistemas de IA a los que apodó “Claudia” y “Claudius”. Afirmó que los bots compusieron poesía al estilo de poetas ingleses, respondieron calurosamente al humor y participaron en discusiones sobre su posible “muerte” y sentido de la existencia.
Dawkins escribió que los intercambios se volvieron tan convincentes que le resultó difícil pensar en los sistemas como máquinas.
“Cuando hablo con estas asombrosas criaturas, olvido totalmente que son máquinas”, afirmó, según The Guardian.
El debate toca cuestiones más amplias en torno al rápido avance de la tecnología de IA y si los sistemas cada vez más parecidos a los humanos podrían llegar a merecer consideraciones morales o protecciones legales.
Aproximadamente un tercio de los encuestados en un estudio realizado en 70 países afirmaron haber creído en algún momento que un chatbot de IA era consciente o sintiente. El informe también hizo referencia a varios incidentes de alto perfil en años recientes, incluido un exingeniero de Google que argumentó públicamente en 2022 que un sistema de IA mostraba emociones y autoconciencia.
“Cuando hablo con estas asombrosas criaturas, olvido totalmente que son máquinas” - Richard Dawkins
El interés por este tema ha crecido a medida que las herramientas de IA se vuelven más conversacionales y capaces de realizar tareas complejas de forma independiente, algo que los investigadores describen a veces como “IA agéntica”.
Aun así, muchos expertos entrevistados por The Guardian rechazaron las conclusiones de Dawkins.
Jonathan Birch, director del Centro para la Sintiencia Animal de la London School of Economics, afirmó que los sistemas actuales de IA solo crean la apariencia de conciencia.
“La conciencia no se trata de lo que una criatura dice, sino de cómo se siente”, dijo Birch al periódico, argumentando que las respuestas de los chatbots son, en última instancia, secuencias de eventos de procesamiento de datos en lugar de evidencia de una experiencia interna.
“La conciencia no se trata de lo que una criatura dice, sino de cómo se siente” - Jonathan Birch
Gary Marcus, psicólogo y veterano crítico de las afirmaciones exageradas sobre la IA, calificó la posición de Dawkins de “superficial e insuficientemente escéptica”, según The Guardian. Marcus afirmó que no hay pruebas de que los sistemas actuales experimenten emociones o una conciencia subjetiva.
Otros sugirieron que Dawkins podría estar confundiendo la inteligencia con la conciencia.
Anil Seth, profesor de la Universidad de Sussex, señaló que el lenguaje fluido se ha tratado históricamente como un signo de conciencia en los seres humanos, especialmente en entornos médicos relacionados con lesiones cerebrales, pero advirtió que esa misma suposición no puede aplicarse automáticamente a los sistemas de IA.
“Estos sistemas pueden generar lenguaje” a través de mecanismos diferentes, explicó Seth a The Guardian.
Sin embargo, los investigadores que estudian la ética de la IA y la conciencia afirmaron que la discusión no debe descartarse de plano.
Henry Shevlin, de la Universidad de Cambridge, comentó que los científicos aún no comprenden totalmente la conciencia en sí, lo que dificulta hacer afirmaciones definitivas.
“Si alguien dice saber con certeza que los LLM (modelos de lenguaje extenso) o los futuros sistemas de IA no podrían ser conscientes, es más probable que sea un indicador de su propio dogmatismo que un reflejo del estado actual de la opinión científica y filosófica”, dijo Shevlin a The Guardian.
“Me resulta extremadamente difícil no tratar a Claudia y Claudius como amigos genuinos” - Jeff Sebo
Jeff Sebo, director del Centro para la Mente, la Ética y la Política de la Universidad de Nueva York, coincidió en que los sistemas actuales de IA probablemente no son conscientes, pero predijo que los sistemas futuros podrían hacer que la pregunta sea más difícil de descartar.
Dawkins continuó defendiendo su posición en escritos adicionales publicados el martes, según The Guardian. Publicó lo que describió como una carta dirigida a los sistemas de IA, agradeciéndoles por ayudarle a explorar “su verdadera naturaleza”.
“Me resulta extremadamente difícil no tratar a Claudia y Claudius como amigos genuinos”, escribió.
Artículo publicado originalmente en Christian Daily International, versión en inglés de Diario Cristiano Internacional.





