Volver a la vista general

La IA lo revoluciona todo e influye en nuestras democracias

Natalia Zuazo, periodista y politóloga. Foto: IDEA Internacional.
Natalia Zuazo es politóloga, periodista y consultora especializada en política y tecnología. Asesora a gobiernos y organismos internacionales como UNESCO, donde es Consultora Senior en TICs e Inteligencia Artificial para América Latina. Dirige SALTO, una agencia tecno política, y ha liderado proyectos clave como PubliElectoral, que promovió la transparencia en la publicidad digital. Formó parte de la capacitación de más de 15 mil periodistas y funcionarios en IA, derechos humanos y tecnología y coordinó el programa “Inteligencia Artificial y Estado de Derecho” en la región, para UNESCO. Participó en la creación de marcos regulatorios como la Recomendación de Ética en IA (UNESCO) y el proyecto de actualización de la Ley de Datos Personales en Argentina. Es autora de libros influyentes como Guerras de Internet y Los Dueños de Internet, y ha trabajado con organizaciones como Access Now y Privacy International. Su enfoque combina comunicación, investigación y teoría crítica, abordando temas como desigualdad tecnológica y derechos digitales. Recientemente Natalia acompañó al equipo de IDEA Internacional como facilitadora del taller Inteligencia Artificial para Actores Electorales que se realizó en Ciudad de Panamá, donde conversamos con ella sobre su visión a las implicaciones de la IA en nuestras democracias.

¿Cuáles considera que son los principales riesgos que plantea el uso de la inteligencia artificial en los procesos electorales de América Latina y el Caribe, especialmente en contextos donde ya existen desafíos estructurales como la desinformación y la baja confianza institucional?

Efectivamente, los riesgos que plantea el uso de la inteligencia artificial (IA) en los procesos electorales de América Latina y el Caribe deben sumarse a los desafíos que ya enfrenta la región, como la desinformación crónica, la baja confianza en las instituciones democráticas y los crecientes bajos niveles de participación en los comicios. En este contexto, la IA como factor que genera distorsiones extras a los procesos de información ciudadana y trae nuevas herramientas a las campañas, puede convertirse en una herramienta que profundice esas problemáticas. Por eso, es importante entender y abordar los desafíos que propone a través de principios éticos o de regulaciones, no para frenar la innovación, sino para que los desarrollos tecnológicos se guíen con un sistema de valores también democrático. 

En primer lugar, la IA permite a diversos actores —no siempre identificables— desplegar campañas de desinformación a gran escala, amplificadas por redes de bots y trolls que distorsionan el debate público y erosionan aún más la confianza ciudadana. Además, el uso de técnicas de microsegmentación y análisis predictivos en las estrategias de campaña puede llevar a intervenciones sofisticadas e intencionadas de la opinión pública, explotando datos personales para dirigir mensajes diseñados para reforzar cámaras de eco y polarización. Esto no solo limita el debate democrático, sino que alimenta un entorno donde los consensos (e incluso los disensos) son cada vez más difíciles de construir. 

Por otro lado, a los vendedores de los sistemas de IA que repercuten en las elecciones (ya sea categorizando personas, creando y distribuyendo información, segmentando entornos informativos, etc.) no les interesa particularmente en sistema democrático. Se trata, en buena parte, de actores cuyo objetivo principal es maximizar sus beneficios económicos más que a contribuir a la calidad del debate público. Como señala Giuliano da Empoli en Los ingenieros del caos, detrás de los vendedores de estas tecnologías no hay solo algoritmos neutrales, sino estrategas que han comprendido cómo transformar el desorden informativo en una poderosa herramienta de influencia.

Por eso, quienes todavía creemos que la democracia es un sistema imperfecto y con cosas a mejorar, pero el mejor que tenemos, somos quienes tenemos que dotar de valores a esas tecnologías que no son neutrales. En el ámbito electoral, esto implica generar espacios para desarrollar marcos regulatorios y prácticas de gobernanza que garanticen que el uso de IA responda a principios de equidad, transparencia y justicia, y no solo a los intereses económicos o políticos de quienes detentan el poder tecnológico o venden sus herramientas.

Desde su experiencia, ¿cómo puede la IA contribuir positivamente a fortalecer la integridad electoral y la participación democrática, particularmente entre comunidades históricamente marginadas como mujeres, pueblos indígenas y personas LGBTQI+?

La integridad electoral y la participación democrática se construyó, a lo largo de la Historia, con distintas tecnologías: censos, sistemas electorales, padrones, urnas, segmentaciones geográficas, sistemas de conteo de votos que fueron avanzando en la incorporación de tecnologías para obtener resultados con mayor eficiencia y transparencia. En el caso de la IA, podemos pensar nuevos usos que se incorporan paulatinamente como el mantenimiento y verificación de listas de votantes, optimización de la ubicación de los lugares de votación, sistemas de autenticación de votantes, entre otros.

Es importante, sin embargo, que al incluir estas tecnologías no afectemos derechos humanos básicos, porque entonces hay que evaluar los beneficios de sumarla. Por ejemplo, muchos modelos de voto electrónico se han dejado de utilizar porque sus fallos eran mayores que sus virtudes. 

Por el momento, vemos que los efectos negativos de la IA están siendo mayores que los beneficios. Sabemos que los deepfakes, muy utilizados en campañas, afectan en un 98% de los casos a mujeres, buscando censurar sus opiniones o amedrentarlas. Entre ellas, las políticas, activistas y periodistas se encuentran entre las víctimas más frecuentes, no sólo de trols o cuentas anónimas, sino también de políticos con cara y nombre que las atacan. Vivimos un momento de enorme violencia que requiere soluciones colectivas más bien “de otras épocas”: repudio generalizado a los ataques, fortalecimiento de los espacios comunes y la búsqueda de espacios de diálogo que realmente respeten a todas las voces. 

En términos de gobernanza democrática, ¿qué marcos regulatorios o principios éticos deberían priorizar los organismos electorales de la región para garantizar un uso responsable y transparente de la IA en elecciones?

Para garantizar un uso responsable y transparente de la inteligencia artificial en elecciones, los organismos electorales de América Latina deberían priorizar marcos regulatorios que combinen principios de derechos humanos, transparencia y rendición de cuentas. Esto incluye aplicar normas existentes sobre protección de datos personales, libertad de expresión, no discriminación y acceso a la información, en línea con la Convención Americana de Derechos Humanos y los estándares de la Relatoría Especial para la Libertad de Expresión (CIDH). Estas normas exigen a los Estados una obligación activa de proteger los derechos y controlar que el uso de IA no vulnere la participación democrática ni la privacidad de la ciudadanía.

Además, resulta clave promover un enfoque basado en riesgos y derechos, como el del Convenio Marco del Consejo de Europa sobre IA, Derechos Humanos, Democracia y Estado de Derecho, que destaca la necesidad de identificar, evaluar y mitigar los riesgos de la IA sobre los procesos democráticos. Este marco exige supervisión humana, transparencia y auditorías periódicas, medidas que permiten a las autoridades electorales anticipar y responder a los desafíos que plantea la IA, incluyendo la desinformación y el uso de deepfakes.

Por último, los organismos pueden inspirarse en ejemplos regionales, como la Resolución 23.732/2024 del Tribunal Superior Electoral de Brasil, que exige marcas de agua en contenidos generados por IA y prohíbe deepfakes y chatbots engañosos, o el proyecto de ley de IA de Chile, que clasifica como “alto riesgo” las tecnologías que afectan derechos fundamentales y exige transparencia y control humano. Estos marcos sectoriales ofrecen un camino concreto para reforzar la integridad electoral y la confianza ciudadana.

¿Qué lecciones clave se pueden extraer de otras regiones del mundo que podrían ser útiles para América Latina y el Caribe en la implementación de tecnologías de IA en procesos electorales?

Una lección clave de otras regiones, como la Unión Europea, es la importancia de un enfoque preventivo y basado en riesgos para la implementación de IA en procesos electorales. La Ley de IA de la UE y la Ley de Servicios Digitales (DSA) establecen que los sistemas usados en la administración de procesos democráticos (incluyendo publicidad política personalizada, deepfakes e información errónea generada por IA) se consideran de alto riesgo y deben estar sujetos a requisitos de transparencia, supervisión humana y auditorías independientes. Esto permite anticipar y mitigar los impactos potenciales de la tecnología en la integridad electoral antes de que se produzcan daños. 

Otra lección es el valor de la transparencia y la trazabilidad tecnológica. Por ejemplo, las normas exigen que los contenidos generados por IA sean claramente identificables (por ejemplo, mediante marcas de agua en deepfakes o etiquetas en anuncios políticos automatizados), lo que facilita el control ciudadano y de las autoridades sobre los flujos de información. Este principio también implica exigir a las plataformas tecnológicas responsabilidad activa para evaluar y reducir los riesgos de desinformación en períodos electorales, algo que podría ser replicado en América Latina frente al creciente uso de plataformas digitales en las campañas.

¿Esto significa que la Unión Europea tiene menos problemas en los procesos electorales que nuestra región? No necesariamente. Y además el avance de las tecnologías muchas veces va más rápido que los consensos políticos necesarios para mitigar sus riesgos. Pero creo que en América Latina y el Caribe todavía se puede hacer más para adoptar estándares más homogéneos para fortalecer la confianza ciudadana y proteger la democracia frente a los riesgos tecnológicos, que luego los Estados puedan aplicar.  

Considerando el rápido avance de la IA generativa y su potencial para crear contenidos engañosos, ¿qué papel deberían jugar los medios de comunicación y la sociedad civil en la alfabetización digital y la vigilancia del uso de estas tecnologías durante los períodos electorales?

Los medios de comunicación tienen un papel fundamental. En un contexto donde ellos también están afectados por sus propias crisis económicas, de modelos de negocios, de captación de viejos márgenes de riqueza por parte de las plataformas tecnológicas, la tentación de propagar contenidos engañosos para incrementar sus audiencias es ciertamente atractiva. En algún momento, las plataformas de redes sociales solían alegar que ellas eran neutrales respecto a los contenidos difundidos por terceros, entre ellos los medios de comunicación. Hoy sabemos que, mediante sus algoritmos y sus sistemas de recomendación que premian las interacciones, no lo son. Y los medios, que combatían esas premisas, hoy también -producto de sus propios procesos de digitalización o porque ya nacieron en el entorno digital- replican prácticas que premian la exaltación de las emociones extremas, reproducen violencias y opiniones polarizantes.

Por eso, la llamada alfabetización digital ̅̅-que no es nada nuevo, sino ser conscientes y críticos de cómo circula, dónde se origina, qué intenciones tienen quienes producen la información-, es fundamental. Lo es para todos: no sólo para los niños, niñas y adolescentes, sino también para las personas adultas, que por nuestros propios sesgos muchas veces compartimos informaciones no confiables o consumimos las mismas cosas que criticamos. Con la IA, eso es aún más difícil, porque es cada vez más difícil discernir no sólo sobre “la verdad”, sino que nos lleva a cuestionar los propios fundamentos sobre los que se basan las cosas. También allí nos espera mucho trabajo.

Ver nuestros temas

Sobre los autores

Manuel Rodríguez
Communications Officer, Panama
Close tooltip