¿Pueden las organizaciones usar modelos de lenguaje de IA como ChatGPT para inducir a los votantes a comportarse de cierta manera?
El senador Josh Hawley planteó esta pregunta al CEO de OpenAI, Sam Altman 16 de mayo de 2023, audiencia en el Senado de EE.UU. sobre inteligencia artificial. Altman respondió que de hecho le preocupaba que algunas personas pudieran estar usando modelos de lenguaje para manipular, persuadir y participar en interacciones uno a uno con los votantes.
Altman no dio detalles sobre los detalles, pero es posible que haya tenido algo como este escenario en mente. Imagine que pronto los politólogos están desarrollando una máquina llamada Clogger: una campaña política en una caja negra. Clogger persigue constantemente un objetivo: maximizar las posibilidades de que su candidato, la campaña que compra Clogger Inc. – Ganará las elecciones.
Mientras que plataformas como Facebook, Twitter y YouTube utilizan formas de inteligencia artificial para atraer a los usuarios toma más tiempo en sus páginas, la IA de Clogger tendría un propósito diferente: cambiar el comportamiento de votación de las personas.
¿Cómo funcionaría Clogger?
Cómo científico político y experto en derecho que exploran la intersección de la tecnología y la democracia, creemos que algo como Clogger podría usar la automatización para aumentar drásticamente la escala y la efectividad potencial manipulación del comportamiento y técnicas de microfocalización que las campañas políticas han utilizado desde principios del siglo XXI. Como los anunciantes utilizan su historial de navegación y redes sociales Ahora, para orientar los anuncios comerciales y políticos de forma individual, Clogger se dirigiría a usted, y a cientos de millones de otros votantes, de forma individual.
Esto sería tres avances sobre los actuales algoritmos de manipulación de comportamiento de última generación. Primero, su modelo de lenguaje generaría mensajes (textos, redes sociales y correos electrónicos, posiblemente incluyendo imágenes y videos) personalizados para usted personalmente. Mientras que los anunciantes colocan estratégicamente una cantidad relativamente pequeña de anuncios, los modelos de lenguaje como ChatGPT pueden generar innumerables mensajes únicos para usted personalmente, y millones para otros, en el transcurso de una campaña.
En segundo lugar, Clogger usaría una técnica llamada aprendizaje reforzado genera una serie de mensajes que cada vez tienen más probabilidades de cambiar tu voto. El aprendizaje por refuerzo es el aprendizaje automático, un método de prueba y error en el que la computadora realiza acciones y recibe comentarios sobre cuál funciona mejor para aprender cómo lograr un objetivo. Máquinas que pueden jugar Go, Ajedrez y muchos videojuegos mejor que cualquier hombre se beneficiaron del aprendizaje por refuerzo.
En tercer lugar, en el transcurso de la campaña, los mensajes de Clogger pueden evolucionar para incluir sus respuestas a los mensajes anteriores de la máquina y lo que ha aprendido sobre otros que cambiaron de opinión. El clogger podría tener “conversaciones” dinámicas contigo, y con millones de otras personas, a lo largo del tiempo. Los mensajes de Clogger serían similares a los anuncios que lo siguen en varios sitios web y redes sociales.
La naturaleza de la inteligencia artificial
Hay tres características más, o errores, que vale la pena señalar.
Primero, los mensajes enviados por un Clogger pueden o no tener contenido político. El único propósito de la máquina es maximizar el porcentaje de votos, y probablemente diseñaría estrategias para lograr este objetivo en las que ningún agente humano habría pensado.
Una opción es enviar a los posibles votantes de la oposición información sobre las pasiones no políticas que tienen en los deportes o el entretenimiento para disfrazar los mensajes políticos que reciben. Otra opción es enviar mensajes desagradables, por ejemplo, anuncios de incontinencia, para que coincidan con los mensajes de los oponentes. Otra es manipular grupos de amigos votantes en las redes sociales para dar la impresión de que sus círculos sociales apoyan a su candidato.
En segundo lugar, Clogger no respeta la verdad. De hecho, no hay forma de saber qué es verdad y qué es falso. El modelo de lenguaje “alucinaciones” no son un problema para esta máquina porque su propósito es cambiar su voz, no darle información precisa.
En tercer lugar, debido a que es una IA de caja negra, las personas no tendrían forma de saber qué estrategias utiliza.
clocracia
Si la campaña presidencial republicana desplegara Clogger en 2024, la campaña demócrata probablemente se vería obligada a responder de la misma manera, tal vez con una máquina similar. Llámalo Dogger. Si los directores de campaña pensaran que estas máquinas eran efectivas, la contienda presidencial bien podría haberse reducido a Clogger vs. Dogger, y el ganador sería el cliente de la máquina más efectiva.
Los politólogos y los expertos tendrían mucho que decir sobre por qué ganó una u otra IA, pero probablemente nadie lo sabría realmente. El presidente será elegido no porque sus propuestas políticas o ideas políticas convencieran a más estadounidenses, sino porque tenía una inteligencia artificial más efectiva. El contenido que ganó ese día vendría de una IA enfocada únicamente en ganar, sin ideas políticas propias, y no de candidatos o partidos.
En este sentido tan importante, la máquina ganaría la elección, no la persona. Las elecciones dejarían de ser democráticas, aunque se llevaran a cabo todos los actos habituales de la democracia: discursos, anuncios, mensajes, votaciones y recuento de votos.
Un presidente electo por AI podría tomar una de dos formas. Él o ella puede usar el manto electoral para seguir la política del Partido Republicano o Demócrata. Pero dado que las ideas de los partidos pueden haber tenido poco que ver con por qué la gente votó de la forma en que lo hizo (a Clogger y Dogger no les importan las opiniones políticas), las acciones del presidente no reflejarían necesariamente la voluntad de los votantes. Los votantes serían manipulados por AI en lugar de elegir libremente sus políticas y líderes políticos.
Otra ruta es que el presidente siga mensajes, comportamientos y políticas que la máquina predice que maximizarán sus posibilidades de reelección. En este camino, el presidente no tendría una plataforma o agenda específica más que permanecer en el poder. Lo más probable es que las acciones del presidente, dirigidas por Clogger, manipulen a los votantes en lugar de servir a sus intereses genuinos o incluso a la propia ideología del presidente.
Evitando la Clogocracia
La manipulación electoral de la IA podría evitarse si todos los candidatos, campañas y consultores renunciaran al uso de dicha IA política. Consideramos que esto es poco probable. Si se desarrollaran cajas negras políticamente efectivas, la tentación de usarlas sería casi irresistible. De hecho, los consultores políticos bien pueden ver el uso de estas herramientas como requerido por su responsabilidad profesional para ayudar a sus candidatos a ganar. Y cuando uno de los candidatos utiliza una herramienta tan eficaz, difícilmente se puede esperar que los oponentes se resistan mediante el desarme unilateral.
Una mayor protección de la privacidad ayudaría. El clogger dependería del acceso a cantidades masivas de información personal para llegar a las personas, crear mensajes adaptados a sus creencias o manipularlas, y rastrearlas y reorientarlas a lo largo de la campaña. Cualquier información que las empresas o los formuladores de políticas nieguen a esta máquina la haría menos efectiva.
Las comisiones electorales son otra solución. Podrían intentar prohibir o regular estrictamente estas máquinas. Es debate feroz sobre si es palabra “replicante”., incluso si es de naturaleza política, puede regularse. La tradición estadounidense extrema de la libertad de expresión lleva a muchos científicos destacados a concluir que no puede.
Pero no hay razón para extender automáticamente la protección de la Primera Enmienda al producto de estas máquinas. La nación bien puede decidir otorgar derechos a las máquinas, pero debe ser una decisión basada en los desafíos de hoy, no es una suposición incorrecta que las opiniones de James Madison de 1789 eran aplicables a la inteligencia artificial.
Los reguladores de la Unión Europea se están moviendo en esta dirección. Los responsables políticos han modificado el proyecto de ley del Parlamento Europeo sobre inteligencia artificial para especificar “sistemas de inteligencia artificial para influir en los votantes en las campañas”. como “alto riesgo” y están sujetos a control regulatorio.
Un paso constitucionalmente más seguro, aunque más pequeño, ya adoptado parcialmente por reguladores europeos de internet en California, es prohibir que los bots se hagan pasar por personas. Por ejemplo, las regulaciones pueden exigir que los mensajes de campaña incluyan descargos de responsabilidad si el contenido que contienen es generado por una máquina en lugar de por un humano.
Esto sería similar a los requisitos del descargo de responsabilidad de la publicidad: “Pagado por Sam Jones para el Comité del Congreso”, pero modificado para reflejar el origen de la IA: “Este anuncio generado por IA fue pagado por Sam Jones para el Comité del Congreso”. Una versión más fuerte podría decir: “Este mensaje generado por IA lo envía el Comité de Sam Jones para el Congreso porque Clogger predijo que aumentaría sus posibilidades de votar por Sam Jones en un 0,0002 %”. Creemos que al menos los votantes merecen saber cuándo les habla un bot y también deberían saber por qué.
La posibilidad de un sistema como Clogger muestra que la forma de debilidad colectiva humana puede que no requiera algo sobrehumano inteligencia general artificial. Puede que simplemente requiera activistas y consultores demasiado entusiastas que tengan nuevas y poderosas herramientas a su disposición que puedan presionar efectivamente a millones de personas.
Este artículo ha sido republicado desde Conversación bajo una licencia Creative Commons. leer artículo original.