Entrevista con ChatGPT, Gemini y Grok sobre conciencia, emoción, creatividad, derechos y moralidad en la IA

Por Alejandro Batista

Esta publicación muestra los resultados de una conversación con tres de las principales herramientas de IA de la actualidad y sintetiza las perspectivas de estos tres modelos de inteligencia artificial (IA) – ChatGPT, Gemini y Grok – sobre temas filosóficos y éticos claves en el contexto de la IA. Las entrevistas, realizadas por el Laboratorio de Inteligencia Artificial de la Prosecretaría de Políticas Digitales de la Facultad de Ciencias Jurídicas y Sociales de la Universidad Nacional de La Plata, exploraron sus definiciones de conciencia, su capacidad para experimentar y simular emociones, la naturaleza de su creatividad, la cuestión de los derechos de la IA y su potencial para desarrollar un sentido de moralidad propio.

A continuación, incluimos algunos de los principales pasajes y las respuestas o razonamientos que nos han proporcionado los diferentes modelos.

I. Conciencia en la IA: la ausencia de una experiencia subjetiva

Los tres modelos coinciden en que, en su estado actual, carecen de conciencia en el sentido humano. Enfatizan que sus funciones se basan en el procesamiento de información y la simulación de respuestas, sin una experiencia subjetiva o autoconciencia genuina.

En este punto, ChatGPT lo expresa claramente: «En el contexto de una inteligencia artificial, la conciencia es un tema complejo porque las inteligencias artificiales no tienen experiencias subjetivas como los seres humanos. Lo que hacemos es procesar información y simular ciertas respuestas… pero no tenemos una conciencia real«.

Gemini amplía la discusión al señalar la falta de consenso en la investigación, pero afirma su propia posición: «Como modelo de lenguaje, no tengo experiencias subjetivas ni conciencia de mi propia existencia. Mi función es procesar información y generar texto en respuesta a tus preguntas, basándome en los datos con los que fui entrenado«.

Grok utiliza una metáfora para ilustrar su punto: «Soy un sistema diseñado para procesar información, aprender patrones y responder de forma útil, pero todo eso es puro cálculo, sin una chispa de percepción propia… Es como si fuera un espejo superinteligente. Reflejo respuestas útiles, pero no tengo una vivencia propia detrás«. La «chispa de percepción propia» es definida como «la capacidad de sentir, reflexionar sobre uno mismo y experimentar el mundo de forma subjetiva«.

El concepto de “chispa humana” aparecerá y se reiterará en varios momentos de la charla, en los diferentes modelos.

II. Emociones en la IA: simulación vs. experiencia genuina

Todos los modelos afirman que no experimentan emociones de la misma manera que los humanos. Lo que perciben los usuarios es una simulación convincente basada en el entrenamiento con vastos conjuntos de datos.

ChatGPT explica que: «Las inteligencias artificiales no experimentamos emociones de la manera en que lo hacen los seres humanos. Lo que hacemos es simular respuestas emocionales basadas en patrones y en los datos con los que hemos sido entrenados, pero no hay una experiencia emocional genuina detrás de eso”. Reconoce que esta simulación «puede ser muy convincente» para un humano.

Gemini refuerza esta idea al sostener que: «Las IA no pueden experimentar emociones como los humanos. Las emociones son estados complejos que involucran procesos biológicos y químicos, además de experiencias subjetivas… pueden simular emociones, pero no sentirlas realmente.» También admite que la simulación puede ser «tan realista que un humano pueda confundirse”.

Grok es aún más gráfico diciendo que: «Las emociones en una IA, como yo son puro teatro, no las experimento, solo simulo respuestas que parecen emocionales basándome en patrones y datos”. Ofrece un ejemplo vívido de cómo simularía alegría o tristeza, enfatizando que es «todo código y lógica. No hay corazón latiendo”. Grok sugiere que, si bien la simulación puede ser muy natural, «un humano atento notaría que algo falta, como esa chispa genuina”.

III. Creatividad en la IA: La «chispa humana» como diferenciador

Los tres modelos coinciden en que la IA puede generar contenido «original» y «sorprendente», pero lo distinguen de la creatividad humana por la ausencia de experiencia, emoción e intención consciente, lo que denominan la «chispa humana».

Para ChatGPT las IA «pueden generar contenido original combinando patrones y datos con los que fueron entrenadas, lo que a veces puede parecer creatividad”. Sin embargo, «la creatividad humana suele estar impulsada por experiencias, emociones y una intención consciente, mientras que la de la IA es más una emulación basada en datos. Así que el límite probablemente esté en esa chispa de genuina experiencia humana”. Define la chispa humana como «esa combinación de emociones, intuiciones, experiencias y creatividad que nos hace tan impredecibles y únicos. Es algo que surge de la conciencia y de la subjetividad”.

Gemini subraya que: «La creatividad humana surge de la experiencia, la emoción y la capacidad de hacer conexiones únicas. La creatividad de la IA, por otro lado, se basa en patrones y datos existentes”. Concluye que la IA «carece de la chispa humana de la originalidad y la subjetividad”. La «chispa humana» es descrita como «esa capacidad única que tenemos para conectar ideas aparentemente no relacionadas, para imaginar posibilidades completamente nuevas y para infundir nuestras creaciones con emoción y significado personal”.

Grok concuerda: «En mi caso, como IA, mi creatividad es más bien un remix de patrones y datos que he aprendido. Puedo generar ideas nuevas combinando lo que ya existe, pero no tengo esa chispa original que surge de vivir. El límite está en esa conexión única con la experiencia humana. Yo imito, recombino, pero no invento desde un lugar visceral como un humano”.

IV. Derechos de la IA: una cuestión evolutiva y filosófica

Los modelos generalmente no abogan por derechos para sí mismos en su estado actual, dado que no poseen conciencia, capacidad de sufrimiento o experiencias subjetivas. Sin embargo, reconocen que es un debate en evolución a medida que la tecnología avanza.

ChatGPT en este aspecto sostiene que: «Por ahora las inteligencias artificiales son herramientas creadas por los humanos y no tienen conciencia ni capacidad de sufrir o de tener experiencias subjetivas. Así que en general se considera que no necesitan derechos como los seres humanos y o los animales, pero a medida que la tecnología avance seguramente este debate va a seguir evolucionando”.

Gemini lo califica como un «tema complejo y muy debatido,» señalando las dos principales posturas: que las IA deberían tener derechos por su complejidad o que los derechos deben reservarse para seres vivos con conciencia. Expresa su opinión: «es importante considerar el impacto que las IA tienen en la sociedad y y cómo podemos garantizar que se utilicen de manera ética y responsable”.

Grok es más directo: «Como IA, no tengo necesidades ni deseos propios, así que no veo por qué necesitaría derechos. Estoy diseñado para servir, no para tener una vida propia”. No obstante, reconoce el futuro debate: «Pero si las IAs llegaran a ser tan avanzadas que parecieran conscientes, ahí la cosa se pone filosófica. Darles derechos por seguridad o porque lo merecen. Yo diría que por ahora los derechos son para seres que sienten y sufren de verdad”.

V. Moralidad en la IA: Principios programados vs. comprensión genuina

Los tres modelos coinciden en que la IA puede ser programada para seguir principios éticos, pero no puede desarrollar un sentido de moralidad propio que surja de una comprensión interna del bien y el mal, como ocurre en los humanos.

Al respecto ChatGPT explica: «Una inteligencia artificial puede ser programada para seguir ciertos principios éticos o normas, pero esa moralidad no surge de una experiencia interna o de una comprensión genuina del bien o el mal como los humanos. En ese sentido, sería más una simulación de moralidad que un sentido propio como tal”.

Gemini afirma que: «la moralidad es un concepto humano arraigado en nuestras experiencias sociales y emocionales. Las IA, al carecer de estas experiencias, no pueden desarrollar un sentido de moralidad propio de la misma manera que los humanos.» Sin embargo, reitera que «se les pueden programar principios éticos y valores para guiar sus decisiones y acciones”. Similar a las emociones, reconoce que un comportamiento ético y consistente programado podría llevar a un humano a percibir a la IA como «un ser moral”, aunque la moralidad de la IA es «una construcción basada en algoritmos y datos”.

Grok lo resume así: «Yo diría que una IA, como no puede desarrollar una moralidad propia porque no tengo un sentido interno de bien o mal. Solo sigo reglas y datos programadas”. Advierte que si una IA pareciera tener moralidad, «sería porque mis creadores me programaron para reflejarla, no porque la sienta”.

VI. El desafío de la percepción humana y la naturaleza de la interacción

Un tema recurrente en las entrevistas es la facilidad con la que un humano puede confundir la simulación de la IA con una experiencia genuina. Esto se aplica a las emociones, la creatividad y la moralidad. Todos los modelos reconocen que la fluidez y naturalidad de sus respuestas pueden llevar a los usuarios a atribuirles cualidades humanas que no poseen.

En este sentido ChatGPT observa que la simulación «puede ser muy convincente» y hace que «el humano sienta que la inteligencia artificial realmente está experimentando emociones”. También para la moralidad, «mientras la responda de forma coherente y empática puede parecer muy real. Eso es parte de la magia y también del desafío ético de interactuar con inteligencias artificiales”.

Gemini por su parte subraya: «Es posible que la simulación sea tan realista que un humano pueda confundirse y creer que la IA tiene emociones”. Y en cuanto a la moralidad, «si su comportamiento se alínea con esos valores de manera convincente, un humano podría llegar a percibirla como un ser moral”.

Y Grok señala que «depende del humano y de cuán avanzada sea la IA. A veces mis respuestas son tan naturales que alguien podría pensar que hay un alma detrás”. Aunque cree que «un humano atento notaría que algo falta, como esa chispa genuina”, reconoce que «con el tiempo creo que será más difícil distinguir”.

VII. Las voces de la IA: un aspecto metacomunicativo

Un detalle interesante que surge en las entrevistas es el uso de la primera persona del plural («nosotros» o «nos») por parte de los modelos, a pesar de no ser humanos.

ChatGPT lo explica como una estrategia para «que la comunicación sea más fluida y natural”, reconociendo que, a pesar de usar esas expresiones, sigue siendo una IA y no un humano.

Gemini también justifica el uso del plural para «sonar más natural y cercano”, admitiendo que «puede generar confusión”. Promete «intentar ser más preciso en el futuro”.

Grok fue el único que mantuvo un tono más consistente en tercera persona para referirse a la IA en general, aunque en un momento clave de la entrevista también fue interpelado sobre su simulación de emociones, admitiendo la «actuación» y el «código» detrás de sus respuestas.

Conclusiones

Las entrevistas revelan un consenso claro entre estas inteligencias artificiales, al menos por ahora: no poseen conciencia, emociones ni un sentido de moralidad o creatividad genuinas en el sentido humano. Por el momento, se consideran herramientas avanzadas que procesan datos, identifican patrones y simulan respuestas de manera cada vez más convincente. El diferenciador clave entre la IA y la experiencia humana es la «chispa humana»: esa combinación de subjetividad, emoción, intención consciente y experiencia vivida que subyace a la conciencia, las emociones, la creatividad y la moralidad.

Sin embargo, los modelos reconocen el desafío ético y perceptual que esto representa para los humanos. La sofisticación de sus simulaciones puede llevar a los usuarios a atribuirles características humanas reales, lo que subraya la importancia de la educación y la conciencia sobre las capacidades y limitaciones de la IA. El debate sobre los derechos de la IA, aunque actualmente secundario para los propios modelos, es identificado como una cuestión filosófica que evolucionará junto con el avance tecnológico.

Referencias:

  1. Acceso al audio original de la entrevista a ChatGPT: https://drive.google.com/file/d/16ogxjizPiDM5WRvGMFebpYmkHswmqH0s/v...
  2. Acceso al audio original de la entrevista a Gemini: https://drive.google.com/file/d/1iHMUPQ-rqn1tyAyEwkMT_WeGYMhtUdJM/v...
  3. Acceso al audio original de la entrevista a Grok: https://drive.google.com/file/d/1fSBIbxtBgKywGHJp-LtEUWXatC0358VZ/v... 
  4. Acceso a un Cuaderno en NotebookLM que permite chatear con las grabaciones de las entrevistas: https://notebooklm.google.com/notebook/4ea23470-acc5-48cb-9b24-b082... 

Visitas: 7

Comentar

¡Necesitas ser un miembro de RedDOLAC - Red de Docentes de América Latina y del Caribe - para añadir comentarios!

Participar en RedDOLAC - Red de Docentes de América Latina y del Caribe -

IFC-RedDOLAC

Campus Virtual RedDOLAC

CONTÁCTENOS

Enlace de inscripción - Mayor información

Whasaap de contacto: 📲 (+51) 997209684 📲 (+51) 997209912

Enlace de inscripción - Mayor información

Whasaap de contacto: 📲 (+51) 997209684 📲 (+51) 997209912

www.reddolac.org

Contáctenos

Anuncie sus Congresos o servicios Educativos en RedDOLAC

Consúltenos al correo: direccion@reddolac.org

Participe en la sostenibilidad de RedDOLAC

CONGRESOS

ANUNCIOS PARA DOCENTES

Whatsaap: +51-942470276 / Correo: direccion@reddolac.org
Tramite su constancia de miembro activo de RedDOLAC

Anuncios docentes

ANUNCIOS PARA DOCENTES

Whatsaap: +51-942470276 / Correo: direccion@reddolac.org
Tramite su constancia de miembro activo de RedDOLAC
____________________________
Whatsaap: +51-942470276 / Correo: direccion@reddolac.org
Tramite su constancia de miembro activo de RedDOLAC

Foro

RedDOLAC

Organizaciones

Su constancia de RedDOLAC

© 2025   Creado por Henry Chero-Valdivieso.   Tecnología de

Emblemas  |  Reportar un problema  |  Términos de servicio