En este texto, Archon Fung y Lawrence Lessig analizan los riesgos que la Inteligencia Artificial podría suponer para las elecciones y los estados democráticos.
¿Podría la Inteligencia Artificial (IA) tomar el control de las elecciones y socavar la democracia?
En este texto, Archon Fung y Lawrence Lessig analizan los riesgos que la Inteligencia Artificial podría suponer para las elecciones y los estados democráticos.
Texto de Archon Fung & Lawrence Lessig 03/07/23
“¿Podrían las organizaciones usar modelos de lenguaje de inteligencia artificial, como ChatGPT, para inducir a los votantes a comportarse de una manera específica?”.
El senador Josh Hawley le planteó esta pregunta al CEO de OpenAI, Sam Altman, en una audiencia del Senado de los Estados Unidos sobre inteligencia artificial que se llevó a cabo el 16 de mayo de 2023. Altman respondió que, de hecho, sí estaba preocupado de que algunas personas pudieran utilizar estos modelos de lenguaje para manipular, persuadir e interactuar de manera personal con los votantes.
Altman no abordó con más detalle el asunto, pero tal vez tenía en mente un escenario parecido a este: imagina que, en un futuro cercano, los especialistas en tecnología política desarrollan una máquina llamada “Clogger” —toda una campaña política de “caja negra” [es decir, cuyo funcionamiento es secreto]. Clogger persigue sin descanso un solo objetivo: maximizar las posibilidades de que su candidato —la campaña del partido político que contrata los servicios de Clogger Inc.— gane la elecciones.
En tanto que plataformas como Facebook, Twitter y YouTube hacen uso de modelos de IA para que los usuarios pasen más tiempo en sus sitios web, la IA de Clogger tendría un objetivo diferente: cambiar la tendencia de voto de las personas.
¿Cómo funcionaría Clogger?
Como politólogos y expertos legales que estudian la intersección entre la tecnología y la democracia, creemos que una cosa como Clogger podría usar la automatización tecnológica para aumentar de forma efectiva y exponencial el alcance y la manipulación de las tendencias de voto y las técnicas de “microtargeting” que las campañas políticas han estado utilizando desde principios del año 2000. Del mismo modo que en este momento los publicistas usan tu historial de navegación y de redes sociales para ofrecerte anuncios comerciales y políticos personalizados, así Clogger te prestaría atención a ti —y a cientos de millones de otros votantes— de manera individual.
Esta hipotética máquina ofrecería tres ventajas sobre las tecnologías actuales que manipulan la tendencia de voto a partir de algoritmos. En primer lugar, su modelo de lenguaje podría generar anuncios —de texto, en redes sociales y por correo electrónico, tal vez incluso con imágenes y videos— adaptados a ti de manera personal. Mientras que los anunciantes posicionan, de manera estratégica, un número relativamente pequeño de anuncios, los modelos de lenguaje como ChatGPT pueden generar miles de ellos dirigidos especialmente para ti —y millones para otros— durante una campaña electoral.
En segundo lugar, Clogger podría utilizar una técnica llamada “aprendizaje por refuerzo” para generar una sucesión de anuncios que se volverían más y más propensos a influir en tu voto. El aprendizaje por refuerzo es un modelo de machine-learning a través de prueba y error donde la computadora ejecuta acciones y recibe comentarios sobre cuál de ellas funciona mejor con el fin de alcanzar un objetivo. Las máquinas que pueden jugar Go, Ajedrez y muchos videojuegos mejor que cualquier humano han utilizado aprendizaje por refuerzo.
En tercer lugar, a lo largo de la campaña electoral, los anuncios de Clogger podrían evolucionar para tomar en cuenta tus respuestas previas, así como lo que ha aprendido sobre cómo cambiar la opinión de otros. Clogger podría ser capaz de mantener “conversaciones” dinámicas contigo —y con millones de otras personas— durante dicho tiempo. Los mensajes de Clogger serían similares a la publicidad que te sigue a través de diferentes sitios web y redes sociales.
La naturaleza de la IA
Tres características más —o más bien bugs— son dignas de mención.
La primera es que los anuncios que Clogger enviaría podrían ser, o no, de contenido político. El único objetivo de la máquina es maximizar la tendencia de voto; por ello, quizá diseñaría estrategias para lograr dicho objetivo que ningún jefe de campaña humano habría pensado.
Un posible escenario es enviar a los potenciales votantes de la oposición información —que no tenga nada que ver con materia política— sobre sus aficiones por los deportes o el entretenimiento con el fin de “sepultar” los mensajes políticos que reciben. Otro es enviar mensajes desconcertantes —por ejemplo, anuncios sobre incontinencia urinaria— que estén programados para publicarse al mismo tiempo que los mensajes de los oponentes. Y otro escenario sería manipular los grupos de amigos de los votantes en las redes sociales para generar la sensación de que dichos círculos sociales apoyan a uno u otro candidato.
La segunda es que Clogger no tiene respeto por la verdad. De hecho, no tiene manera de saber qué es verdadero o falso. Las llamadas “alucinaciones” de los modelos de lenguaje no son un problema para esta máquina porque su objetivo es cambiar tu voto, no es proporcionar información verídica.
La tercera es que, debido a que es un tipo de IA de caja negra, la gente no tendría forma de saber qué estrategias pone en marcha dicha máquina. El campo de la explainable AI tiene como objetivo abrir la caja negra de muchos modelos de machine-learning para que las personas puedan entender cómo funcionan.
Clogocracia
Si en la campaña presidencial de 2024 los republicanos hicieran uso de Clogger, es probable que los demócratas se verían obligados a responder de la misma manera, quizá con una máquina similar. Llamémoslo ‘Dogger’. Si los jefes de campaña piensan que estas máquinas son efectivas, la contienda presidencial bien podría reducirse a Clogger contra Dogger, y el ganador sería el cliente de la máquina más eficiente.
Los politólogos y los expertos en la materia tendrían mucho que decir sobre por qué una u otra IA prevaleció, pero es probable que nadie lo sabría en verdad. El presidente sería elegido no porque sus propuestas e ideas políticas convencieran a más estadounidenses, sino por tener la IA más eficiente. El contenido que se llevaría las palmas habría provenido de una IA centrada enteramente en la victoria —sin ideas políticas propias— y no de los candidatos o los partidos políticos.
En tal escenario tan importante, una máquina habría ganado las elecciones y no una persona. La elección ya no sería un asunto de democracia, a pesar de que todas las actividades ordinarias y propias de este sistema político —los discursos, los anuncios, los mensajes, la votación y el conteo de votos— habrían ocurrido. El presidente electo por la IA podría entonces proceder de dos maneras: él o ella podría cobijarse con el “manto electoral” y seguir las políticas del Partido Republicano o el Demócrata. Pero, dado que las propuestas de dichos partidos pueden haber tenido poco que ver con por qué las personas votaron de una u otra manera —a Clogger y Dogger no les importan las posturas políticas—, las acciones emprendidas por el presidente no necesariamente reflejarían la voluntad de los votantes. Estos habrían sido manipulados por la IA en lugar de elegir libremente a sus líderes políticos y sus iniciativas.
Otra posibilidad es que el presidente siga aquellos mensajes, comportamientos y políticas que la máquina pronostique que maximizarán la probabilidad de reelección. De este modo, el presidente no tendría una plataforma o agenda particular más allá que mantener el poder. Las acciones del mandatario, guiado por Clogger, muy probablemente estarían encaminadas a manipular a los votantes en vez de cumplir los intereses genuinos de la gente o incluso seguir la propia ideología del presidente.
Evitar la clogocracia
Evitar la manipulación electoral de la IA sería posible si los candidatos, las campañas electorales y los asesores renunciaran al uso de esta. Nosotros creemos que es poco probable. Si se desarrollaran cajas negras eficientes en materia política, la tentación de utilizarlas sería casi irresistible. De hecho, los asesores políticos podrían ver el uso de estas herramientas como parte de su responsabilidad profesional de ayudar a sus candidatos a ganar. Y una vez que un candidato use una herramienta así de efectiva, difícilmente podríamos esperar que sus oponentes se queden de brazos cruzados.
Reforzar la privacidad ayudaría. Clogger dependería del acceso a grandes cantidades de datos personales con el fin de dirigirse a los individuos, diseñar anuncios personalizados para persuadirlos o manipularlos, y rastrearlos y reorientarlos durante la campaña electoral. Cada bit de esa información que las empresas o los legisladores denieguen el acceso haría menos efectiva esta máquina.
Las comisiones electorales serían otra solución. Podrían tratar de prohibir o regular con severidad estas máquinas. Hay un acalorado debate sobre si el discurso de estos “replicantes”, incluso si es de naturaleza política, puede ser regulado. En los Estados Unidos existe una gran tradición de libertad de expresión, lo que lleva a muchos académicos destacados a decir que no se puede regular.
Sin embargo, no hay ninguna razón para extender de manera automática la protección que ofrece la Primera Enmienda al producto de estas máquinas. La nación podría decidir dotar de derechos a las máquinas, pero esa decisión debería estar basada en los desafíos de nuestro tiempo, no en la suposición sin fundamento de que las opiniones de James Madison en 1789 estaban predestinadas a aplicarse a la IA.
Los reguladores de la Unión Europea están apuntando a dicha dirección. Los legisladores revisaron el borrador del Parlamento Europeo de su “Ley de Inteligencia Artificial” para designar los “sistemas de IA que pueden influir en los votantes durante las campañas electorales” como “de alto riesgo” y sujetos a supervisión reglamentaria.
Un paso más seguro en términos constitucionales, aunque más modesto —y ya adoptado en parte por los reguladores de internet en Europa y en California—, es prohibir que los bots se hagan pasar por personas. Por ejemplo, la regulación podría requerir que los mensajes de campaña presenten avisos de exención de responsabilidad cuando el contenido sea generado por máquinas y no por humanos.
Serían como aquellos mensajes que encontramos en cierta publicidad: “Pagado por el Comité de Sam Jones”, pero con ciertas modificaciones para dejar en claro que fue creado por una IA: “Este anuncio generado por IA fue pagado por el Comité de Sam Jones”. Una versión más estricta podría requerir: “Este anuncio generado por IA está siendo enviado a usted por el Comité de Sam Jones porque Clogger ha predicho que de esta manera la probabilidad de que usted vote por Sam Jones aumentará en un 0.0002%”. Creemos que los votantes al menos merecen saber cuándo están hablando con un bot, y también deberían saber por qué.
La posible existencia de un sistema como Clogger muestra que el camino hacia la pérdida de poder de los colectivos humanos puede no requerir una inteligencia general artificial [AGI, por sus siglas en inglés] sobrehumana. Podría requerir solo jefes de campaña y asesores políticos demasiado ansiosos por utilizar nuevas y poderosas herramientas para presionar, de manera efectiva, los muchos “botones” de millones de personas. EP
Este texto fue publicado originalmente en The Conversation
Se publica en Este País con autorización de sus autores y The Conversation bajo la licencia Creative Commons
Con el inicio de la pandemia, Este País se volvió un medio 100% digital: todos nuestros contenidos se volvieron libres y abiertos.
Actualmente, México enfrenta retos urgentes que necesitan abordarse en un marco de libertades y respeto. Por ello, te pedimos apoyar nuestro trabajo para seguir abriendo espacios que fomenten el análisis y la crítica. Tu aportación nos permitirá seguir compartiendo contenido independiente y de calidad.