17 febrero 2026
Anna Luisa Walter de Santana
Profesora y consultora experta en inteligencia artificial, democracia y derechos humanos
Jorge Ernesto Roa Roa
El debate sobre la IA en el contexto electoral no puede limitarse a juicios morales o a evaluaciones genéricas sobre sus riesgos y beneficios.
Las próximas elecciones no se disputarán solo en las urnas ni en el terreno –ya conocido– de la polarización política. Se librarán en un ecosistema informacional saturado, acelerado y cada vez más opaco, donde los sistemas de inteligencia artificial (IA) producen, amplifican y distorsionan contenidos a una escala inédita. Sin embargo, el mayor riesgo no reside en la tecnología en sí misma, sino en el desajuste estructural entre la velocidad con la que estas herramientas avanzan y la capacidad –todavía limitada– de las instituciones electorales para comprenderlas, regularlas y contener sus efectos sobre la formación de la voluntad política.
Este desplazamiento del enfoque es fundamental. El debate sobre la IA en el contexto electoral no puede limitarse a juicios morales o a evaluaciones genéricas sobre sus riesgos y beneficios. Se trata, ante todo, de un problema de adecuación del diseño institucional y de la capacidad regulatoria de las autoridades electorales frente a procesos decisorios mediados por sistemas algorítmicos caracterizados por la opacidad, la automatización y efectos sistémicos relevantes sobre la formación de la voluntad política.
La expansión del entorno digital ya había tensionado los modelos tradicionales de regulación electoral, especialmente en lo relativo a la propaganda en línea, la circulación de desinformación y la atribución de responsabilidades en el ecosistema digital. Ahora, la adopción creciente de herramientas de IA, en particular las generativas, profundiza este escenario al introducir nuevas formas de automatización, escala y opacidad, que desafían las respuestas normativas e institucionales existentes.
Un análisis comparado muestra que el uso de sistemas de IA en el contexto electoral ha evidenciado riesgos específicos para la integridad del proceso democrático, especialmente en lo que respecta a la manipulación de audios y videos de candidatos, la creación de deepfakes altamente verosímiles y la segmentación personalizada de contenidos con fines de persuasión electoral. Además, a medida que la IA generativa se integra en los motores de búsqueda y que los electores recurren a chatbots para obtener información básica sobre el proceso electoral, aumenta el riesgo de exposición a contenidos falsos, descontextualizados u originados en fuentes marginales, sin una mediación institucional clara.
Este escenario pone de manifiesto un problema estructural: el diseño institucional de la organización electoral fue concebido para lidiar con conductas humanas individualizables y no con procesos decisorios mediados por sistemas algorítmicos automatizados. Tradicionalmente, las autoridades electorales operan a partir de categorías, como autoría, intención y responsabilidad individual. Sin embargo, los sistemas de IA desafían directamente estos presupuestos al introducir cadenas difusas de decisión, elevada opacidad técnica y efectos sistémicos que no pueden atribuirse fácilmente a un único actor.
Cuando una campaña utiliza herramientas automatizadas de generación de contenido, cuando las plataformas amplifican determinados mensajes conforme a criterios algorítmicos o cuando los sistemas de recomendación moldean el flujo informacional del electorado, resulta insuficiente aplicar de manera mecánica las categorías clásicas del derecho electoral. No basta con trasplantar las reglas analógicas a un entorno digital profundamente asimétrico y automatizado.
En este ámbito, Brasil se ha convertido en un laboratorio adelantado de los desafíos que plantea la IA para la democracia. Mientras el avance acelerado de estas tecnologías y el giro reciente de las grandes plataformas anticipan un escenario de desinformación aún más difícil de rastrear en las elecciones de 2026, el Tribunal Superior Electoral (TSE) intentó tomar la delantera con una regulación pionera en 2024: prohibió los deepfakes con fines electorales, impuso obligaciones de transparencia, restringió el uso de bots para simular interacción con votantes y atribuyó responsabilidad a las plataformas por la permanencia de contenidos ilícitos. Pero el propio proceso regulatorio reveló sus límites: la Resolución del TSE nació como un marco en construcción y, ya en 2025, obligó a reabrir el debate mediante audiencias públicas, con propuestas de endurecimiento de sanciones, veto a recomendaciones automatizadas de candidaturas y nuevos deberes preventivos para los proveedores de IA, en un esfuerzo por preservar –contrarreloj– la integridad del proceso electoral.
La experiencia brasileña muestra que proteger la integridad electoral en la era de la IA exige mucho más que nuevas normas: requiere construir capacidades institucionales reales. Esto pasa por establecer protocolos de respuesta rápida ante incidentes informacionales, realizar evaluaciones de riesgo específicas sobre el uso de IA en cada fase del ciclo electoral y articular acuerdos con las empresas que desarrollan y proveen estos sistemas, con un enfoque preventivo orientado a anticipar y mitigar abusos.
De manera que las próximas elecciones en Colombia y Brasil no serán solo una contienda política: serán una prueba de resistencia institucional frente a un entorno informacional cada vez más automatizado y opaco. Lo que está en juego no es únicamente la eficacia de las normas existentes, sino la capacidad real de los Estados para anticipar, comprender y contener los efectos sistémicos de la IA sobre la deliberación pública. Allí donde esa capacidad no se construya –con regulación, con cooperación tecnológica y, sobre todo, con fortalecimiento institucional–, los riesgos informacionales tenderán a profundizarse, erosionando la confianza ciudadana y debilitando silenciosamente los cimientos mismos de la democracia.
