Desarrollo de la "conciencia" en la IA
![]() |
Los comportamientos similares a los humanos pueden dificultar juzgar el verdadero nivel de participación de los robots. Fuente: Johannes Simon/Getty |
Los investigadores se plantean una lista de verificación derivada de seis teorías de la conciencia basadas en la neurociencia para ayudar en la evaluación.
31 agosto 2023.- La ciencia ficción ha considerado durante mucho tiempo la idea de que la inteligencia artificial se vuelva consciente: piense en HAL 9000, la supercomputadora convertida en villano en la película de 1968 2001: Una odisea en el espacio .
Con el rápido progreso de la inteligencia artificial (IA), esa posibilidad es cada vez menos fantástica e incluso ha sido reconocida por los líderes en IA. El año pasado, por ejemplo, Ilya Sutskever, científico jefe de OpenAI, la compañía detrás del chatbot ChatGPT, tuiteó que algunas de las redes de inteligencia artificial más avanzadas podrían ser “ligeramente conscientes” .
Muchos investigadores dicen que los sistemas de IA aún no están en el punto de la conciencia, pero que el ritmo de la evolución de la IA los ha hecho reflexionar: ¿cómo sabríamos si lo estuvieran?
Para responder a esto, un grupo de 19 neurocientíficos, filósofos e informáticos han elaborado una lista de criterios que, de cumplirse, indicarían que un sistema tiene altas posibilidades de ser consciente. Publicaron su guía provisional a principios de esta semana en el repositorio de preimpresiones arXiv 1 , antes de la revisión por pares.
Los autores emprendieron el esfuerzo porque "parecía que había una verdadera escasez de discusión detallada, empíricamente fundamentada y reflexiva sobre la conciencia de la IA", dice el coautor Robert Long, filósofo del Centro para la Seguridad de la IA, una organización de investigación sin fines de lucro. en San Francisco, California.
El equipo dice que no identificar si un sistema de IA se ha vuelto consciente tiene importantes implicaciones morales. Si algo ha sido etiquetado como "consciente", según la coautora Megan Peters, neurocientífica de la Universidad de California, Irvine, "eso cambia mucho sobre cómo nosotros, como seres humanos, sentimos que esa entidad debe ser tratada".
Robert Long añade que, hasta donde él sabe, las empresas que construyen sistemas avanzados de inteligencia artificial no están haciendo suficientes esfuerzos para evaluar los modelos de conciencia y hacer planes sobre qué hacer si eso sucede. "Y eso a pesar del hecho de que, si escuchas los comentarios de los jefes de los principales laboratorios, dicen que la conciencia de la IA o la sensibilidad de la IA es algo sobre lo que se preguntan", añade.
Nature se acercó a dos de las principales empresas de tecnología involucradas en el avance de la IA: Microsoft y Google. Un portavoz de Microsoft dijo que el desarrollo de la IA por parte de la compañía se centra en ayudar a la productividad humana de manera responsable, en lugar de replicar la inteligencia humana. Lo que está claro desde la introducción de GPT-4, la versión más avanzada de ChatGPT lanzada públicamente, "es que se requieren nuevas metodologías para evaluar las capacidades de estos modelos de IA a medida que exploramos cómo alcanzar todo el potencial de la IA para beneficiar a la sociedad como un todo entero”, afirmó el portavoz. Google no respondió.
¿Qué es la conciencia?
Uno de los desafíos al estudiar la conciencia en la IA es definir qué significa ser consciente. Peters dice que, a los efectos del informe, los investigadores se centraron en la "conciencia fenoménica", también conocida como experiencia subjetiva. Esta es la experiencia de ser: lo que es ser una persona, un animal o un sistema de inteligencia artificial (si uno de ellos resulta ser consciente).
Existen muchas teorías basadas en la neurociencia que describen la base biológica de la conciencia. Pero no hay consenso sobre cuál es el "correcto" . Por lo tanto, para crear su marco, los autores utilizaron una variedad de estas teorías. La idea es que si un sistema de IA funciona de una manera que coincida con aspectos de muchas de estas teorías, entonces existe una mayor probabilidad de que sea consciente.
Argumentan que este es un mejor enfoque para evaluar la conciencia que simplemente someter un sistema a una prueba de comportamiento; por ejemplo, preguntarle a ChatGPT si está consciente o desafiarlo y ver cómo responde. Esto se debe a que los sistemas de inteligencia artificial se han vuelto notablemente buenos a la hora de imitar a los humanos.
El enfoque del grupo, que los autores describen como cargado de teoría, es un buen camino a seguir. Sin embargo, los científicos destacan que "necesitamos teorías de la conciencia más precisas y bien comprobadas".
Un enfoque cargado de mera teoría
Para desarrollar sus criterios, los autores asumieron que la conciencia se relaciona con cómo los sistemas procesan la información, independientemente de de qué estén hechos, ya sean neuronas, chips de computadora u otra cosa. Este enfoque se llama funcionalismo computacional. También asumieron que las teorías de la conciencia basadas en la neurociencia, que se estudian mediante escáneres cerebrales y otras técnicas en humanos y animales, pueden aplicarse a la IA.
Sobre la base de estas suposiciones, el equipo seleccionó seis de estas teorías y extrajo de ellas una lista de indicadores de conciencia. Una de ellas, la teoría del espacio de trabajo global, afirma, por ejemplo, que los humanos y otros animales utilizan muchos sistemas especializados, también llamados módulos, para realizar tareas cognitivas como ver y oír. Estos módulos funcionan de forma independiente, pero en paralelo, y comparten información integrándose en un único sistema. Una persona evaluaría si un sistema de IA en particular muestra un indicador derivado de esta teoría observando la arquitectura del sistema y cómo la información fluye a través de él.
Los autores dicen que el artículo está lejos de ser una visión final sobre cómo evaluar los sistemas de IA para la conciencia y que quieren que otros investigadores ayuden a perfeccionar su metodología. Pero ya es posible aplicar los criterios a los sistemas de IA existentes. El informe evalúa, por ejemplo, grandes modelos de lenguaje como ChatGPT, y encuentra que este tipo de sistema posiblemente tiene algunos de los indicadores de conciencia asociados con la teoría del espacio de trabajo global. Sin embargo, en última instancia, el trabajo no sugiere que ningún sistema de IA existente sea un fuerte candidato para la conciencia, al menos no todavía.
Fuente: Butlin, P. y col . Preimpresión en https://arxiv.org/abs/2308.08708 (2023).
COMENTARIOS