Del proyecto piloto a la política: Cómo los organismos electorales están adoptando la IA de manera responsable
Estos usos novedosos no se añaden simplemente a los procesos existentes. Más bien, se utilizan para reimaginar partes centrales de la arquitectura y la comunicación electoral de manera que puedan mejorar significativamente los servicios a los votantes y resolver desafíos administrativos complejos. Al mismo tiempo, pueden generar nuevos riesgos, especialmente cuando se integran en procesos electorales centrales o aplicaciones de cara al público, como la gestión del censo de votantes, el recuento y tabulación de votos o la divulgación de votantes. Las preocupaciones van desde las relacionadas con el diseño de la IA en sí (que pueda ser sesgada, discriminatoria o tergiversar hechos sobre el proceso electoral de manera que se corre el riesgo de privar de sus derechos a los votantes) hasta temores en torno a la dependencia de la trayectoria y la adopción institucional desigual, a menudo debido a la limitada alfabetización y capacidad de IA a nivel organizacional.
A medida que los EMB amplían su integración de la IA, los riesgos ya no son hipotéticos. En respuesta, los OGE están repensando sus estrategias y actualizando políticas para garantizar que la IA mejore la administración electoral sin poner en peligro los principios democráticos. Sin embargo, dado que la IA electoral es todavía un terreno en gran medida inexplorado, los precedentes y las mejores prácticas son pocos y espaciados, lo que significa que casi todos los OGE tienen un enfoque único para la adopción y regulación de la IA. Para capturar estos diversos cambios institucionales, IDEA Internacional ha encuestado a los organismos electorales de todo el mundo, documentando sus diferentes enfoques sobre la IA como tecnología electoral.
IDEA Internacional, en colaboración con Microsoft, la Universidad Estatal de Arizona (ASU) y The Elections Group (TEG), ha lanzado el Centro de Habilidades de la Clínica Electoral AI +, parte del Laboratorio de Mecánica de la Democracia organizado por ASU. Se concibe como un depósito central de conocimientos sobre mejores prácticas y casos de uso, que empodera a los actores electorales para abordar de manera responsable tecnologías electorales impulsadas por IA previamente inexploradas.
Skills Hub presenta estudios de casos escritos por IDEA Internacional y basados en entrevistas con autoridades electorales, que cubren los distintos casos de uso de IA y estructuras de gobernanza en Estonia, México, Filipinas, Pakistán, Sudáfrica, Albania, Nigeria, el Reino Unido y Australia. Estos estudios, junto con otros materiales de la Clínica, sirven como recursos de intercambio entre pares para el desarrollo de capacidades para los OGE que buscan aprovechar las innovaciones de la IA para reducir la carga administrativa, mejorar los procesos electorales y redefinir cómo los OGE ejecutan las elecciones y cómo los votantes las experimentan, al mismo tiempo que se refuerzan los principios democráticos. Los estudios de caso imparten lecciones clave sobre cómo fortalecer la preparación para la IA y al mismo tiempo evitar obstáculos, ayudando a los OGE a aprender no solo cómo aprovechar la IA, sino también cómo se pueden desarrollar procedimientos internos, programas de personal, estructura organizacional y políticas de IA para respaldar la integración de herramientas democráticas de IA.
El Skills Hub amplía el extenso trabajo de IDEA Internacional sobre la IA en la gobernanza electoral. Esto incluye su informe Inteligencia artificial para la gestión electoral, que proporciona una base de conocimientos sobre las posibles oportunidades y desafíos del uso de la IA para la gestión electoral, y su serie de talleres sobre IA para actores electorales, realizados en cinco países y destinados a mejorar la capacidad institucional para el uso medido de la IA en las elecciones. Este sitio web da el siguiente paso y explora las experiencias del mundo real de los EMB en la integración de la IA.
Si bien los OGE pueden compartir similitudes en términos de su uso actual de la IA y sus estructuras de gobernanza, cada caso es distinto y destaca ideas centrales relacionadas con las realidades prácticas de la implementación de la IA. Albania y Australia ofrecen dos ejemplos interesantes que arrojan luz sobre la naturaleza compleja y a menudo impredecible del despliegue de la IA, al tiempo que destacan cómo una arquitectura de gobernanza sólida y pruebas en el mundo real son vitales para una integración responsable de la IA.
Albania
La Comisión Electoral Central (CEC) de Albania sigue un enfoque empírico para la implementación de cualquier tecnología nueva en sus operaciones. De acuerdo con esta perspectiva, la CCA sigue un protocolo de prueba establecido para todas las nuevas tecnologías de IA que exige la creación de prototipos y evaluaciones rigurosas con estricta supervisión humana antes de implementar las soluciones a escala. Durante sus elecciones parciales de alcalde de 2025, la CCA probó una nueva herramienta de análisis de imágenes basada en inteligencia artificial para la tabulación de votos. Probada por primera vez en un entorno electoral real, la experiencia de la CCA con esta herramienta proporciona un ejemplo interesante que refuerza la importancia de las pruebas piloto prácticas.
La herramienta de análisis de imágenes escaneó las papeletas manejadas por el personal de las mesas electorales para acelerar el recuento de votos y la transmisión de resultados. Dado que este fue su primer mandato legal después de la prueba piloto, solo se implementó en el 3% de los lugares de votación y el proceso de conteo manual se siguió utilizando en paralelo. Después de un buen desempeño inicial con precisión constante, el personal de supervisión se topó con dos problemas inesperados debido a las condiciones físicas en las casillas electorales. En primer lugar, el sistema tendía a contar los votos dos veces si las papeletas se retenían durante un período de tiempo demasiado corto. Este problema se hizo más evidente más tarde en la noche de las elecciones, cuando los cansados trabajadores electorales retuvieron las papeletas demasiado rápido para que el sistema funcionara correctamente. En segundo lugar, la IA tuvo dificultades para reconocer las papeletas que tenían incluso la más mínima inconsistencia, lo que significaba que las papeletas válidas a menudo no se contaban. Este problema cobró especial importancia después de que el manejo regular de las papeletas por parte del personal provocara que sus marcas se debilitaran, lo que provocó un deterioro de la confiabilidad del sistema con el tiempo.
Este ejemplo ilustra una lección importante: muchas de las amenazas potenciales que plantean las nuevas tecnologías no se pueden conocer por completo antes de su implementación práctica. Si bien las evaluaciones previas y las valoraciones de riesgos son un paso crucial en el desarrollo de herramientas de IA, es probable que se aprendan en el campo condiciones imprevisibles que afecten significativamente la validez y confiabilidad del sistema. Para la CCA, esta experiencia reforzó su opinión de que una implementación cuidadosa de la IA requiere la creación de prototipos adecuados y pruebas en el mundo real, de modo que los riesgos puedan identificarse y abordarse antes de que tengan la posibilidad de infligir daños graves a la integridad de las elecciones.
Australia
El enfoque de la Comisión Electoral Australiana (AEC) respecto de la integración de la IA es deliberadamente conservador, y la administración electoral central y la votación se llevan a cabo estrictamente utilizando métodos analógicos. Si bien la AEC mantiene líneas claras para proteger la integridad de los procesos centrales, está explorando herramientas de inteligencia artificial para mejorar la eficiencia administrativa, la productividad interna, las comunicaciones y los servicios a los votantes. En el centro de estas iniciativas se encuentran no solo los componentes técnicos del desarrollo de aplicaciones, sino también una cuidadosa consideración de cómo el diseño institucional y la regulación deben evolucionar en conjunto para establecer soporte y barreras de seguridad para las nuevas herramientas de IA.
Para facilitar este enfoque mesurado, la AEC está redactando directrices y estrategias internas de IA al mismo tiempo que se alinea con la creciente democracia del gobierno australiano que rige la IA en el sector público. Este sistema de múltiples capas, que la AEC debe navegar al considerar un nuevo caso de uso de IA, abarca marcos de gobernanza, mecanismos de garantía, principios éticos y estándares técnicos. Estos instrumentos de gobernanza no solo establecen reglas y límites para el uso de la IA, sino que también brindan recursos para ayudar a las agencias públicas a desarrollar su capacidad para aprovechar la IA, incluidos programas de capacitación y un entorno de prueba de propiedad gubernamental para probar herramientas de IA sin depender de servicios de terceros. Dichos recursos abordan el hecho de que muchas agencias públicas no solo enfrentan una falta de marcos de políticas que regulen el uso de la IA, sino que también carecen de estándares técnicos especializados, recursos, herramientas y experiencia que son necesarios para realizar proyectos de IA.
Paralelamente a la política de IA a nivel gubernamental, la AEC ha establecido estructuras de apoyo internas para navegar este marco de gobernanza de múltiples niveles y facilitar el desarrollo de herramientas de IA sujeto a reglas. En primer lugar, la Comisión ha designado dos funciones de supervisión exigidas por el gobierno, incluido el director de IA, que lidera los esfuerzos de la AEC en el desarrollo de la IA, y el director responsable de la IA, que supervisa el uso responsable de la IA en toda la AEC. En segundo lugar, la AEC ha establecido un grupo de trabajo sobre IA, un foro dedicado a discutir, desarrollar y probar ideas para nuevas aplicaciones de IA. Está abierto a todo el personal, lo que lo convierte en un foro importante para garantizar que el desarrollo del sistema sea internamente transparente. Su amplio mandato incluye brindar orientación al personal sobre la adquisición de IA y mejorar la concientización y la alfabetización en IA, asegurando así un proceso participativo e incluso de adopción.
La transparencia es el mecanismo central de rendición de cuentas en todo este sistema. Las agencias de la Commonwealth están obligadas a publicar declaraciones de transparencia actualizadas periódicamente que detallan explícitamente qué herramientas de inteligencia artificial utilizan, con qué propósito y bajo qué condiciones. Al estar abierta al escrutinio público por diseño y no por elección, la huella de IA de la AEC sigue respondiendo al público y a sus intereses democráticos, reduciendo el riesgo de una gobernanza desalineada dentro de la Comisión y agregando una capa adicional de salvaguardias contra la adopción problemática de la IA. El paquete de gobernanza de la IA de Australia, incluidos sus requisitos de transparencia, destaca cómo una infraestructura de políticas en capas, en lugar de una regulación única, puede fortalecer la rendición de cuentas y la implementación de la IA al garantizar que todas las partes interesadas relevantes, incluido el público, sean consideradas durante el desarrollo de nuevas aplicaciones.
Por qué este trabajo sigue siendo importante
Las experiencias de los nueve organismos electorales destacadas en el Centro de Habilidades de la Clínica Electoral AI + son solo la punta del hielo.
En el transcurso de unos pocos años, muchos de los casos de uso de IA presentados en los estudios de caso han pasado de ser inconcebibles a una realidad práctica y, a medida que la sofisticación de las tecnologías de IA continúa creciendo, es probable que la adopción de la IA siga la misma trayectoria. Sin embargo, estos pasos no se toman a oscuras. Los OGE son muy conscientes de los riesgos inherentes que acompañan al uso de la IA en el contexto de alto riesgo de las elecciones, que van desde errores sistémicos hasta discriminación y privación de derechos. Esta conciencia se refleja claramente en el cambio universal desde la adopción discreta y esporádica de la IA hacia estrategias de IA más desarrolladas que no sólo establecen normas que delinean cómo, cuándo y por qué se utiliza la IA en la gestión electoral, sino que también imaginan las formas sustantivas en las que la IA puede transformar diferentes aspectos de las operaciones de los OGE.
Si los riesgos no se abordan adecuadamente mediante la adaptación institucional, la integración de cualquier función avanzada de IA en las actividades electorales centrales puede no solo ceder el control directo sobre ciertos procesos, sino que también podría hacer que los procesos de toma de decisiones detrás de los resultados generados sean muy opacos. Esto genera preocupaciones sobre la confianza y la legitimidad del público, lo que socava la integridad de las elecciones y la democracia en general. Por lo tanto, si bien los OGE deben continuar explorando nuevas vías para la implementación de la IA, deben mantener un enfoque claro en la transparencia pública y crear vías claras para la rendición de cuentas y la responsabilidad públicas.
El Centro de Habilidades de la Clínica Electoral AI + sirve como herramienta para fomentar este enfoque que prioriza la transparencia. Es un lugar para compartir innovaciones impulsadas por la IA y, lo que es igualmente importante, promueve la responsabilidad institucional al hacer que las experiencias de los OGE con la IA sean visibles para instituciones pares y para el público en general. Este es un paso importante mediante el cual los OGE pueden obtener legitimidad democrática para su toma de decisiones.
Lejos de prescribir un enfoque universalista para la adopción de la IA, estos estudios de caso enfatizan cómo cada país individual puede diseñar su propia pila de IA que al mismo tiempo respete sus normas locales y su contexto nacional único y, al mismo tiempo, defienda principios universales para una IA ética que se alineen con las evaluaciones de expertos, los derechos humanos y los valores democráticos. A medida que los OGE continúan ideando soluciones imaginativas basadas en inteligencia artificial para cuestiones electorales, es importante que estas ideas se recopilen y compartan abiertamente para que estos desarrollos potencialmente de alto impacto puedan entenderse y aprender de ellos. Este sitio web continuará recopilando y plataformando estas experiencias únicas.
Si tiene curiosidad sobre las experiencias de los OGE con la IA y cómo se están desarrollando políticas de IA como barreras de seguridad, lea la serie de estudios de casos en AI + Elections Clinic Skills Hub.