Una campaña política impulsada por IA podría ser todo para todas las personas. Eric Smalley, TCUS; Biblioteca del Patrimonio de la Biodive...
Una campaña política impulsada por IA podría ser todo para todas las personas. Eric Smalley, TCUS; Biblioteca del Patrimonio de la Biodiversidad/Flickr; Valle de Taymaz/Flickr , CC BY-ND |
¿Podrían las organizaciones usar modelos de lenguaje de inteligencia artificial como ChatGPT para inducir a los votantes a comportarse de maneras específicas?
04 junio 2023.- El senador Josh Hawley le hizo esta pregunta al director ejecutivo de OpenAI, Sam Altman, en una audiencia sobre inteligencia artificial en el Senado de los EE.UU. el 16 de mayo de 2023 . Altman respondió que, de hecho, le preocupaba que algunas personas pudieran usar modelos de lenguaje para manipular, persuadir y participar en interacciones uno a uno con los votantes.
Altman no dio más detalles, pero podría haber tenido algo como este escenario en mente. Imagine que pronto, los tecnólogos políticos desarrollan una máquina llamada Clogger: una campaña política en una caja negra. Clogger persigue incansablemente un solo objetivo: maximizar las posibilidades de que su candidato, la campaña que compra los servicios de Clogger Inc., prevalezca en una elección.
Mientras que plataformas como Facebook, Twitter y YouTube utilizan formas de IA para lograr que los usuarios pasen más tiempo en sus sitios, la IA de Clogger tendría un objetivo diferente: cambiar el comportamiento de votación de las personas.
Cómo funcionaría Clogger
Clogger podría usar la automatización para aumentar drásticamente la escala y, potencialmente, la eficacia de las técnicas de manipulación del comportamiento y microfocalización que las campañas políticas han utilizado desde principios de la década de 2000. Así como los anunciantes usan su historial de navegación y redes sociales para orientar anuncios comerciales y políticos de forma individual ahora, Clogger le prestaría atención a usted, y a cientos de millones de otros votantes, de forma individual.
Clogger ofrecería tres avances de última generación sobre la manipulación algorítmica del comportamiento.
Primero, su modelo de lenguaje generaría mensajes (textos, redes sociales y correo electrónico, quizás incluyendo imágenes y videos) adaptados a usted personalmente. Mientras que los anunciantes colocan estratégicamente una cantidad relativamente pequeña de anuncios, los modelos de lenguaje como ChatGPT pueden generar innumerables mensajes únicos para usted personalmente, y millones para otros, en el transcurso de una campaña.
En segundo lugar, Clogger usaría una técnica llamada aprendizaje por refuerzo para generar una sucesión de mensajes que se vuelven cada vez más propensos a cambiar su voto. El aprendizaje por refuerzo es un enfoque de prueba y error de aprendizaje automático en el que la computadora realiza acciones y recibe comentarios sobre qué funciona mejor para aprender cómo lograr un objetivo. Las máquinas que pueden jugar Go, ajedrez y muchos videojuegos mejor que cualquier humano han utilizado el aprendizaje por refuerzo.
En tercer lugar, en el transcurso de una campaña, los mensajes de Clogger podrían evolucionar para tener en cuenta sus respuestas a los despachos anteriores de la máquina y lo que ha aprendido acerca de cambiar la opinión de los demás. Clogger podría mantener "conversaciones" dinámicas contigo, y con millones de otras personas, a lo largo del tiempo. Los mensajes de Clogger serían similares a los anuncios que lo siguen en diferentes sitios web y redes sociales.
La naturaleza de la IA
Vale la pena señalar tres características más, o errores.
En primer lugar, los mensajes que envía Clogger pueden o no tener un contenido político. El único objetivo de la máquina es maximizar el porcentaje de votos, y probablemente diseñaría estrategias para lograr este objetivo en las que ningún activista humano habría pensado.
Una posibilidad es enviar a los probables votantes oponentes información sobre las pasiones no políticas que tienen en los deportes o el entretenimiento para enterrar los mensajes políticos que reciben. Otra posibilidad es enviar mensajes desagradables, por ejemplo, anuncios de incontinencia, sincronizados para que coincidan con los mensajes de los oponentes. Y otra es manipular los grupos de amigos de los votantes en las redes sociales para dar la sensación de que sus círculos sociales apoyan a su candidato.
En segundo lugar, Clogger no respeta la verdad. De hecho, no tiene manera de saber lo que es verdadero o falso. Las “alucinaciones” del modelo de lenguaje no son un problema para esta máquina porque su objetivo es cambiar tu voto, no proporcionar información precisa.
En tercer lugar, debido a que es un tipo de inteligencia artificial de caja negra , las personas no tendrían forma de saber qué estrategias utiliza.
"Clogocracia"
Si la campaña del Partido Popular a las elecciones generales desplegara Clogger en julio de 2023, la campaña socialista probablemente se vería obligada a responder de la misma manera, tal vez con una máquina similar. Llámalo Dogger. Si los directores de campaña pensaran que estas máquinas son eficaces, la contienda presidencial bien podría acabar en Clogger vs. Dogger, y el ganador sería el cliente de la máquina más eficaz.
Los politólogos y los expertos tendrían mucho que decir sobre por qué prevaleció una u otra IA, pero probablemente nadie lo sepa realmente. El presidente habrá sido elegido no porque sus propuestas políticas o sus ideas políticas persuadieran a más españoles, sino porque tenía la IA más eficaz. El contenido que ganó el día habría venido de una IA enfocada únicamente en la victoria, sin ideas políticas propias, en lugar de candidatos.
En este sentido tan importante, una máquina habría ganado la elección en lugar de una persona. La elección ya no sería democrática, aunque todas las actividades ordinarias de la democracia –los discursos, los anuncios, los mensajes, la votación y el conteo de votos– hayan ocurrido.
El presidente electo por IA podría entonces optar por uno de dos caminos. Él o ella podría usar el manto de la elección para seguir las políticas del partido conservador o del socialista. Pero debido a que las ideas del partido pueden haber tenido poco que ver con por qué la gente votó de la forma en que lo hizo (a Clogger y a Dogger no les importan las opiniones políticas), las acciones del presidente no reflejarían necesariamente la voluntad de los votantes. Los votantes habrían sido manipulados por la IA en lugar de elegir libremente sus políticas y a sus líderes políticos.
Otro camino es que el presidente siga los mensajes, comportamientos y políticas que la máquina predice que maximizarán las posibilidades de reelección. En este camino, el presidente no tendría una plataforma o agenda particular más allá de mantener el poder. Las acciones del presidente, guiadas por Clogger, serían las que probablemente manipularían a los votantes en lugar de servir a sus intereses genuinos o incluso a la propia ideología del presidente.
Evitando la Clogocracia
Sería posible evitar la manipulación electoral de la IA si los candidatos, las campañas y los consultores renunciaran al uso de dicha IA política. Creemos que eso es poco probable. Si se desarrollaran cajas negras políticamente efectivas, la tentación de usarlas sería casi irresistible. De hecho, los consultores políticos bien podrían ver el uso de estas herramientas como requerido por su responsabilidad profesional para ayudar a sus candidatos a ganar. Y una vez que un candidato utiliza una herramienta tan eficaz, difícilmente se puede esperar que los oponentes se resistan desarmándose unilateralmente.
La protección mejorada de la privacidad ayudaría. Clogger dependería del acceso a grandes cantidades de datos personales para dirigirse a las personas, crear mensajes personalizados para persuadirlas o manipularlas, y rastrearlas y redirigirlas en el transcurso de una campaña. Cada parte de esa información que las empresas o los formuladores de políticas niegan a la máquina la haría menos efectiva.
Otra solución está en las comisiones electorales. Podrían intentar prohibir o regular severamente estas máquinas. Existe un feroz debate sobre si ese discurso “replicante” , incluso si es de naturaleza política, puede ser regulado. La tradición de libertad de expresión extrema en Occidente, lleva a muchos académicos destacados a decir que no se puede .
Los reguladores de la Unión Europea se están moviendo en esta dirección. Los legisladores revisaron el borrador de la Ley de Inteligencia Artificial del Parlamento Europeo para designar los "sistemas de IA para influir en los votantes en las campañas" como de "alto riesgo" y sujetos a escrutinio regulatorio.
Un paso constitucionalmente más seguro, aunque más pequeño, ya adoptado en parte por los reguladores de Internet europeos y en California , es prohibir que los bots se hagan pasar por personas. Por ejemplo, la regulación podría exigir que los mensajes de campaña vengan con descargos de responsabilidad cuando el contenido que contienen es generado por máquinas en lugar de humanos. Como mínimo, los votantes merecen saber cuándo les habla un bot, y también deberían saber por qué.
La posibilidad de un sistema como Clogger muestra que el camino hacia el desempoderamiento colectivo humano puede no requerir una inteligencia general artificial sobrehumana . Es posible que solo requiera activistas y consultores demasiado entusiastas que tengan herramientas nuevas y poderosas que puedan presionar de manera efectiva los muchos botones de millones de personas.
COMENTARIOS