El placer de escuchar

¿Cómo convencer a un neurocientífico de que la IA es consciente?

[Traducción en versión abreviada de la nota original en inglés]

Los grandes modelos de lenguaje como ChatGPT están diseñados para parecer humanos, y en tu interacción con estas IAs, podrías convencerte de que son tan conscientes como tú.

Pero ¿eres consciente en realidad? Seguramente sientes que sí, pero ¿cómo lo sabes? ¿Qué significa ser conscientes? Los neurocientíficos han tratado de responder a esto durante décadas y no han logrado llegar a una definición universalmente aceptada. Tampoco a una prueba de consciencia.

Como la IA se integra a nuestras vidas cada día más, nos preguntamos si alguna vez estos bots podrán ser conscientes de sí mismos, como lo somos nosotros. Y ¿cómo lo sabríamos?

Esta vez, en Giz Pregunta, les pedimos a los neurocientíficos que nos indiquen qué sería lo que les convencería de que la IA es consciente. Cada uno destacó diferentes obstáculos para probar esta hipótesis, señalando la necesidad de seguir investigando a base de la consciencia misma.

Megan Peters

Profesora adjunta de ciencias cognitivas y lógica y filosofía de la ciencia en la Universidad de California, Irvine. También, investigadora del Canadian Institute for Advanced Research Program in Brain, Mind & Consciousness. Presidente de la junta de Neuromatch. Investiga la forma en que el cerebro representa y usa la incertidumbre. 

Lo difícil para convencer a un neurocientífico o a cualquiera de que la IA es consciente es que no existe una prueba objetiva de consciencia, y sería casi imposible crearla.

Por definición, la consciencia es interna, personal y subjetiva. Nadie puede mirar dentro de tu cabeza para determinar que eres consciente, sino que hay que ver cosas externas como las conductas, o la actividad cerebral, o inferir que eres consciente porque los demás suponen que lo somos.

Con la IA no se puede suponer lo mismo. Solo se pueden diseñar pruebas que afirmen nuestra creencia subjetiva de que es consciente. Podemos estudiar su arquitectura, patrones internos de actividad o conductas que nos hagan pensar que “hay alguien allí”. Pero la creencia no es un hecho. Si desarrolláramos pruebas que afirmen nuestra creencia de que la IA es consciente, no tendríamos la prueba de que lo es.

No necesitamos tests de inteligencia o respuestas similares a las humanas, ni pruebas de si la IA es un riesgo. Y no podemos preguntarle a la IA si es consciente porque ¿cómo interpretaríamos su respuesta? Podría estar mintiendo o repitiendo como loro los patrones estadísticos de textos creados por humanos.

Hemos propuesto formas de empezar a desarrollar pruebas de la creencia de que la IA es consciente. Y trabajo sobre cómo podemos decidir si una prueba basada en humanos puede aplicarse a otros sistemas, incluyendo la IA.

Podemos hacer pruebas de consciencia en pacientes de hospital al medir la actividad cerebral cuando responde a consignas como “piensa en jugar al tenis” o “piensa en caminar por tu casa”, pero ese tipo de pruebas no pueden aplicarse a la IA porque carece de “patrones de actividad cerebral” compatibles (tampoco puedes aplicarlas en pulpos o gallinas porque no entienden el lenguaje y/o quizá no sean capaces de imaginar cosas).

Otras “pruebas” tal vez preguntarán si la IA exhibe el tipo de computaciones cognitivas que para los investigadores tienen que ver con la creación de la consciencia. Tal vez fueran más relevantes para la IA, pero tenemos que identificar esas computaciones cognitivas que son críticas a la consciencia.

Incluso con todo eso, hay que recordar que lo que queremos preguntar es si la IA tiene consciencia, no si creemos que la tiene. Quizá nunca lleguemos a esa convicción. Tenemos, mientras tanto, que cuidarnos de no confundir lo que creemos con una afirmación de un hecho objetivo.

Anil Seth

Director del Centro Sussex de Ciencia de la Consciencia y profesor de neurociencia computacional y cognitiva de la Universidad de Sussex. Seth es codirector del Canadian Institute for Advanced Research (CIFAR) Program on Brain, Mind and Consciousness. Su trabajo busca entender la base neurobiológica de la consciencia.

Es muy difícil la pregunta. Hemos aprendido mucho sobre la base neurobiológica de la consciencia en las últimas décadas, pero no hay consenso todavía sobre las condiciones necesarias o suficientes de la consciencia. Si alguien afirma que es posible la IA consciente o imposible, está yendo más allá de lo razonable.

La incertidumbre no es inusual. Es inherente a la ciencia, pero en este caso es inusualmente alta por las opiniones tan divergentes en cuanto a la probabilidad o factibilidad de la consciencia artificial real.

¿Cómo me convencería de que la IA es consciente? Bueno, no me convencerán las conversaciones más fluidas sobre consciencia con grandes modelos de lenguaje. Creo que proyectar la consciencia a los modelos de lenguaje refleja un sesgo psicológico humano más que la comprensión confiable de lo que sucede en realidad.

La pregunta clave es: ¿Hasta dónde tiene que ser como el cerebro la IA para mover la aguja hacia la creencia de que es posible la IA consciente? Muchos estudiosos suponen que todo tiene que ver con computarlo de manera correcta. Porque para ellos la consciencia en el cerebro real se basa en computaciones neuronales, pero también podría surgir de computaciones iguales o similares implementadas en silicona (funcionalismo computacional en filosofía).

Es algo que me despierta sospechas. Cuanto más estudias el cerebro humano, tanto menos plausible ves que lo único importante sean las computaciones. Creo que las propiedades biológicas como el metabolismo y la autopoiesis son necesarias (aunque no suficientes) para la consciencia. Si es así, la IA consciente está descartada, por muy inteligente que sea.

Para convencerme, necesito una idea clara de las condiciones suficientes para que haya consciencia y si la IA satisface esas condiciones. Podrían ser meramente computacionales, pero no lo creo probable. Además, podrían involucrar propiedades biológicas, más probable para mí. La mera simulación de estas propiedades en computadoras clásicas no basta.

Estar plenamente convencido es elevar demasiado la barra. Mi estrategia es que cuanto más entendemos de la consciencia allí donde sabemos que existe, más certezas tendremos en otras áreas. De todos modos, no deberíamos tratar de crear IA consciente.

Michael Graziano

Profesor e investigador del Instituto de Neurociencia de Princeton, que estudia la base cerebral de la consciencia.

Una pregunta un tanto engañosa. ¿Qué me convencería de que la IA tiene la mágica esencia de la experiencia que surge de sus procesos internos? Nada me convencería. No existe tal cosa. Tampoco la tienen los humanos.

Casi todo el trabajo en el campo moderno de los estudios de la consciencia es pseudociencia que se predica sobre la idea de que tenemos que entender cómo surge la mágica esencia de la experiencia en los humanos y otros agentes. Como preguntar dónde está el agujero en el suelo hacia el oeste donde desaparece el sol por las noches. La pregunta en sí misma es un error.

El cerebro humano tiene un automodelo. El automodelo nos informa mal que tenemos una mágica esencia de experiencia, o mejor dicho, es una útil pero esquemática descripción de uno mismo. El modelo representa una vaga esencia de aspecto mágico y no la realidad de 86 mil millones de neuronas y sus interacciones. Todo lo que sabemos de nosotros mismos depende de modelos (información codificada en el cerebro), incrustados como patrones de actividad en las redes neuronales. ¿Qué me convencería de que la IA tiene el mismo auto-modelo que tenemos los humanos y la certeza de ser consciente? Puedo responderlo, al menos en su principio.

Como no conocemos los detalles del automodelo humano ,es una comparación difícil. Pero la IA tiene una característica útil: podemos mirar dentro de la caja y ver representaciones, modelos, información que se codifica en sus redes neuronales, una interpretación de los patrones de la actividad dentro de la IA, que es incipiente pero se hace rápidamente más sofisticada.

Muéstrame una IA que construya un automodelo estable, un automodelo que represente a la IA como con experiencia consciente y con una representación que tenga las mismas características que el automodelo humano y entonces aceptaré que tienes una IA que cree ser consciente así como los humanos creen que son conscientes.

El automodelo lo es todo. Da forma a nuestra personalidad, a la comprensión moral, social y personal de nosotros mismos. Eres tu auto-modelo, y creo que sería buena idea y probablemente inevitable darle un auto-modelo robusto a la IA.

Este artículo ha sido traducido de Gizmodo US por Romina Fabbretti. Aquí podrás encontrar la versión original.

Actualizáte