Hola ¿cómo estás? Espero que muy bien. Especialistas en todo el mundo aseguran que el 2024 es uno de los años electorales más importantes de la historia. De acuerdo al calendario publicado en Wikipedia, más de sesenta países están afectados con elecciones directas nacionales (en veinte de ellos ya tuvieron lugar durante el primer trimestre). Esto significa que el 51% de la población mundial participa, este año, en algún proceso electoral.
El foco, más allá del dato, está puesto en la Inteligencia Artificial. Una tecnología que, si bien en el último tiempo se volvió masiva, nos acompaña desde hace años. La gran diferencia es que ahora abre la posibilidad de que cualquier persona pueda generar contenido sintético de forma simple, rápida y a gran escala.
La preocupación sobre esta herramienta tiene que ver en cómo puede influir en los procesos democráticos y electorales. Por un lado, en los efectos que el uso de inteligencia artificial puede tener en la agenda pública y la generación de noticias e información; y, por el otro, en la importancia de que su desarrollo sea responsable y confiable para que no ponga en peligro nuestras democracias.
¿Cuáles son los riesgos del uso de Inteligencia Artificial durante procesos electorales? Desde la Iniciativa Latinoamericana por los Datos Abiertos/ ILDA, una organización que explora los efectos de la datificación en América Latina, afirman que el riesgo más urgente es “el uso de la IA para el desarrollo de contenido engañoso, ya que puede generar tanto deep fakes -recreando la voz o imagen de políticos o candidatos o personalidades destacadas- como difundir noticias falsas de manera rápida, precisa y segmentada”, todo ello con la finalidad de manipular la opinión pública.
Otro riesgo, también importante, se relaciona con los sesgos que estas tecnologías pueden contener y diseminar rápida y masivamente. Las autoras del artículo escriben: “No hay que olvidar que el insumo que entrena a los algoritmos son los datos, los cuales, de acuerdo a cómo han sido registrados y recolectados, pueden profundizar la discriminación, la desigualdad, las brechas de género, u otras exclusiones”.
Las tendencias del 2024
En enero, un artículo publicado en MIT Technology Review mencionaba las tres tendencias tecnológicas que serían las más usadas durantes las múltiples elecciones de este año: la IA generativa, los microinfluencers políticos y la censura digital. Por supuesto que el artículo se centra en Estados Unidos pero estas tendencias se pueden identificar en distintas acciones que ya vienen sucediendo desde el año pasado en todo el mundo.
Inteligencia Artificial generativa
Es la que genera texto o imágenes a partir de instrucciones y la más utilizada para impulsar y difundir la desinformación política: videos manipulados e imágenes falsas destinadas a cambiar la decisión de las personas que votan o incluso disuadirles de ir a votar.
Según un artículo publicado en The New York Times, para muchas personas expertas en el tema las elecciones argentinas del año pasado se convirtieron en un campo de pruebas para el uso de la inteligencia artificial generativa en las campañas electorales. Gracias a que es muy fácil de usar y el costo es mínimo, los equipos de trabajo y simpatizantes de los dos candidatos que llegaron al ballotage recurrieron a esta herramienta tanto para crear imágenes y videos de autopromoción, como también ataques al oponente adulterando contenidos y generando otros desde cero.
Sin embargo, otro uso posible podría ser en las llamadas telefónicas automáticas, como es el caso de Ashley. Según sus creadores, quienes trabajan sobre todo con candidatas y candidatos demócratas, es la primera voluntaria de campaña en Estados Unidos que funciona con inteligencia artificial generativa. Ashley aprende las ideas y propuestas de la persona candidata que la contrata, analiza los perfiles de las y los votantes para adaptar las conversaciones y es capaz de mantener un número infinito de llamadas personalizadas al mismo tiempo. Además, afirman, “no se siente abatida cuando le cuelgan”.
Shamaine Daniels, candidata demócrata al Congreso por Pensilvania, viene utilizando esta herramienta y se mostró satisfecha porque “allana el terreno de juego” y “ahora dispone de otra forma de entender mejor a los votantes, llegar a ellos en diferentes idiomas (Ashley habla con fluidez más de 20) y mantener muchas más conversaciones". Nos guste o no, este pareciera ser uno de los primeros ejemplos de cómo la IA generativa posibilita una nueva manera de realizar campañas políticas.
Microinfluencers políticos
El uso y/o contratación de personas influyentes y conocidas en campañas políticas no es nuevo, pero sí lo es la participación de quienes se denominan microinfluencers: personalidades que, sin ser masivas, tienen un número considerable de seguidores en sus redes sociales y son influyentes más a un nivel local, etario o temático.
En general, son perfiles que no suelen publicar sobre política, pero esta estrategia les permite a candidatos y candidatas llegar a públicos nuevos y específicos a través de alguien en quien ya confían.
Más allá de las afiliaciones político-partidarias, para las personas influencers es un trabajo: publican a cambio de dinero. Con lo cual, si se analiza esta estrategia desde el punto de vista legal y en relación a la transparencia sobre los fondos llegaremos a la conclusión de que tiene una zona gris porque, en general, no existen normas o una regulación dentro del ámbito electoral sobre esta actividad. De hecho, recientemente en EEUU, el Brennan Center solicitó a la Comisión Federal Electoral (FEC, por sus siglas en inglés) que actualice sus reglas para “garantizar que cuando los candidatos paguen a personas influyentes o utilicen otros medios no tradicionales para llegar a los votantes en línea, las comunicaciones relevantes sean transparentes”.
Censura digital
La represión de la libertad de expresión tampoco es algo nuevo, pero esta práctica hoy cuenta con una mayor precisión y frecuencia como resultado de la vigilancia que facilitan la tecnología, la segmentación en línea y el control estatal de los dominios web.
El último informe sobre la libertad en internet de la organización Freedom House muestra cómo la IA generativa es utilizada para manipular conversaciones y activar la censura en línea, al mismo tiempo que varios gobiernos están aumentando el control de la infraestructura de Internet.
Algunos ejemplos: en Turquía, previo a las elecciones de marzo de este año, el gobierno ordenó a las empresas proveedoras de servicios de Internet limitar el acceso a las redes privadas. De febrero a julio del año pasado, el gobierno de Etiopía en un esfuerzo por mitigar las tensiones religiosas, restringió el acceso a plataformas como Facebook, YouTube, Telegram y TikTok. Por último, en Irán, durante las protestas prodemocráticas de 2022, el régimen recurrió al bloqueo intermitente de todo el acceso a internet y también atacó accesos VPN.
La censura digital y el acceso a la información es una cuestión de derechos humanos y habrá que estar atentas.
¿Hay un límite?
En Latinoamérica también existe una enorme falta de regulaciones y políticas públicas en relación a estas nuevas tecnologías. Sin embargo, de a poco, van apareciendo proyectos de ley específicos sobre IA y políticas públicas diseñadas para impulsar su desarrollo.
Access Now, junto al programa TrustLaw de Thomson Reuters Foundation, lanzó el reporte Radiografía Normativa: ¿Dónde, qué y cómo se está regulando la inteligencia artificial en América Latina? como respuesta frente “a las incertidumbres que están surguiendo a partir del crecimiento y masificación de la Inteligencia Artificial”. Allí se exploran las propuestas legislativas y ejecutivas de Argentina, Brasil, Chile, Colombia, Costa Rica, Perú, México y Uruguay desde una perspectiva en defensa de los derechos humanos.
Desde ILDA sostienen que, precisamente, el desarrollo de la IA “debe ir de la mano con programas de capacitación sobre alfabetización digital, empoderamiento de la ciudadanía en cuanto a cómo y quiénes usan sus datos”. Y agregan:
“En contextos donde aún persisten las brechas digitales y los rezagos en el uso de estas tecnologías limitan derechos como el de la libertad de expresión o la educación, es necesario seguir apostando por espacios de diálogo e intercambio de conocimientos entre sociedad civil, gobierno y sector privado para co-diseñar soluciones prácticas e inclusivas que permitan la re-apropiación de la tecnología al servicio de las personas y no solo como un mecanismo de extracción de datos y generación de capital”.
También sería importante que la legislación que se pueda implementar en la región atienda nuestras necesidades y contextos, y no que solamente replique lo que se determina en los países del norte global. En ese sentido, está bueno recordar la Declaración de Montevideo sobre Inteligencia Artificial y su impacto en América Latina, presentada hace un año en el marco del Encuentro Latinoamericano de Inteligencia Artificial (KHIPU), donde cientos de especialistas y personas involucradas de manera directa en proyectos de investigación y desarrollo de la región, se manifestaron en favor de un uso responsable de la Inteligencia Artificial puesta al servicio de las personas, que evite reforzar desigualdades, minimice el impacto ambiental y ponga en contexto de nuestros países sus potenciales efectos.
Se pueden hacer muchísimas cosas para mitigar los posibles efectos negativos del uso de Inteligencia Artificial y regular su desarrollo. Sin dudas que lo más importante es involucrarse: los límites los tenemos que poner nosotres.
¡Muchas gracias por llegar hasta acá! Este fue el envío #76 de Siempre Cyborg Nunca Diosa.
¿Te gustaría colaborar con el proyecto? Podés compartilo con tus amigues o en tus redes sociales para que llegue a más personas, con eso me ayudás un montón. Si te llegó reenviado, podés sucribirte acá:
¡Nos leemos pronto! Un beso, Ivana.