IA y democracia: ¿Una combinación peligrosa?

Vivimos en un momento de efervescencia tecnológica, donde sistemas de inteligencia artificial generativa se han abierto paso en ámbitos tan sensibles como la opinión pública, comunicación política y participación democrática.

En este contexto, el nuevo Reglamento de Inteligencia Artificial de la Unión Europea (RIA – AI Act) ha dado un paso al frente, clasificando como sistemas de alto riesgo aquellos “destinados a ser utilizados para influir en el resultado de una elección o referéndum o en el comportamiento de voto de personas físicas en el ejercicio de su voto en elecciones o referendos” según el Anexo III, punto 8.

Esta calificación, lejos de implicar una prohibición, marca un umbral de especial vigilancia y activa una serie de obligaciones destinadas a minimizar los posibles efectos adversos. Pero, ¿cuál es el punto de partida en la relación entre IA y democracia? ¿Qué oportunidades ofrece su uso y qué riesgos debemos tener presentes?

Antes del AI Act: una cronología de sucesos inquietantes

Aunque la regulación es reciente, la preocupación no lo es. Incluso antes de su aprobación, existieron varios ejemplos en países que mostraban cómo estas tecnologías podían moldear la opinión pública de forma sutil (y preocupante):

  • Estados Unidos (2020 y 2024): durante las elecciones presidenciales de 2020, circularon por redes sociales imágenes falsas generadas por IA que mostraban a Donald Trump supuestamente huyendo de la policía. En 2024, en las primarias de New Hampshire, se utilizaron llamadas automáticas con una clonación de voz de Joe Biden instando a los votantes a abstenerse.
  • Eslovaquia (2023): las elecciones presidenciales se vieron alteradas por la difusión, en las primeras horas de la jornada electoral, de un deepfake en el que el líder del partido progresista confesaba la compra de votos a una minoría étnica.
  • India (2024) se viralizó un mensaje manipulado en el que una conocida estrella de Bollywood criticaba al primer ministro y al partido en el poder (BJP), generando controversia en plena campaña electoral.
  • Pakistán (2024): el ex primer ministro Imran Khan, desde prisión, logró dirigirse a sus seguidores mediante un discurso construido con tecnología de clonación de voz basada en inteligencia artificial.

Todos estos casos, ocurrieron antes del AI Act, por lo que se desarrollaron en un terreno jurídico difuso. Sin embargo, con la nueva normativa, se establece un nuevo marco que exige trazabilidad y transparencia en procesos tan sensibles como son los democráticos.

La llegada del AI Act

Uno de los errores más comunes al interpretar el AI Act es pensar que la clasificación de un sistema como «de alto riesgo» implica automáticamente su prohibición. Esto no es así. El Reglamento no veta el uso de estas tecnologías, sino que impone una serie de obligaciones estrictas destinadas a mitigar sus posibles efectos adversos. Esta lógica, aunque pueda parecer contradictoria, no es nueva: se ha aplicado en otros ámbitos como la sanidad, el transporte o la seguridad.

Sin embargo, cuando lo que está en juego es la libertad política o la integridad del juicio de la ciudadanía, cabría preguntarse si el umbral de tolerancia al riesgo debería ser más bajo ya que estamos ante un tipo de sistemas cuyo uso puede incidir directamente en los derechos fundamentales y en el funcionamiento de una democracia plural y libre.

En esta categoría de sistemas de IA de alto riesgo se incluyen, por ejemplo, las aplicaciones capaces de manipular el comportamiento humano o de identificar y explotar vulnerabilidades de determinados grupos. También se contemplan circunstancias especialmente sensibles, como la categorización biométrica o la videovigilancia masiva por parte de autoridades en espacios públicos.

Los sistemas utilizados en contextos electorales tampoco escapan a este régimen. Aquellos que afectan a infraestructuras críticas o que pueden interferir en derechos democráticos como la gestión del censo electoral, el reconocimiento de firmas en el voto por correo o los sistemas de identificación biométrica para acceder al voto están sometidos a obligaciones reforzadas. En concreto, deben garantizar:

  1. Una gobernanza adecuada de los datos, asegurando estándares de calidad y evitando sesgos o discriminaciones.
  2. Mecanismos de seguridad y supervisión humana, presentes a lo largo de todo el ciclo de vida del sistema.
  3. Transparencia, informando de manera clara sobre el funcionamiento del sistema y su lógica subyacente.
  4. Registro obligatorioen la base de datos europea de sistemas de alto riesgo.
  5. Superación de un test de conformidad, como paso previo a la obtención de la certificación correspondiente.

Ahora bien, ¿por qué hablamos de riesgo cuando nos referimos a estos sistemas en contextos democráticos? ¿Qué puede salir mal cuando una tecnología diseñada para informar y agilizar procesos se convierte, al mismo tiempo, en una posible herramienta de manipulación?

Aquí entra el problema. Las mismas herramientas que facilitan la transparencia y la participación pueden ser utilizadas para manipular, dividir y polarizar. No a través de un “gran golpe”, sino mediante dinámicas insidiosas que fragmentan la esfera pública y socavan el pensamiento crítico.

Las nuevas técnicas de big data, alimentadas por IA, permiten segmentar a los votantes no solo según datos demográficos, sino también mediante patrones de comportamiento recogidos en el mundo físico y digital. Se construyen perfiles psicológicos precisos para enviar mensajes a medida, incluso diseñados para manipular creencias inconscientes mediante el uso de emociones como el miedo, la pérdida o la indignación.

Esto da lugar a:

  • Más polarización en las opiniones ya que cada ciudadano recibe su “verdad personalizada”, perdiendo el contacto con visiones distintas. Además, los contenidos son filtrados, censurados o impulsados por sistemas sin criterios democráticos, afectando directamente al pluralismo.
  • Desinformación eficaz y selectiva: los mensajes falsos o distorsionados se optimizan para resonar emocionalmente, no racionalmente. Incluso cuando un contenido generado por IA se etiqueta como tal, su impacto puede persistir en el subconsciente de la población de la misma manera que si fuese real.
  • Desigualdad en el acceso a la visibilidad política: los algoritmos priorizan contenidos según sus propios sesgos, generando una jerarquía oculta de discurso político.

Como advierte el análisis académico de la UNED, el verdadero riesgo no está únicamente en el voto en sí, sino en el deterioro progresivo del ecosistema democrático. Las consecuencias son profundas:

  • Se elimina elcontraste de ideas: todo refuerza la visión previa del votante.
  • Se diluye eldebate racional: los argumentos son sustituidos por estímulos emocionales.
  • Se fragmenta laesfera pública: cada votante vive en una burbuja distinta.
  • Se debilita elpensamiento crítico: dejamos de deliberar para simplemente reaccionar.

Pero no todo es riesgo o manipulación. La inteligencia artificial también tiene un enorme potencial transformador en el ámbito democrático, siempre que se utilice con responsabilidad y dentro de los límites legales. Algunos ejemplos destacados incluyen:

  • Aumento de la participación ciudadana, gracias a asistentes virtuales y chatbots que resuelven dudas, explican procedimientos y animan a la participación.
  • Análisis de datos electoralesque permiten a las autoridades anticipar tendencias de participación, identificar patrones de abstención o mejorar la planificación de recursos.
  • Monitorización de la seguridad electoral, combatiendo fraudes y detectando campañas de desinformación en redes sociales.
  • Personalización de campañas, orientada a hacer más relevante y comprensible la comunicación política.
  • Automatización de tareas logísticas y de conteo, reduciendo errores humanos y acelerando la entrega de resultados.

Conclusión

La inteligencia artificial no es, en sí misma, ni una amenaza ni una salvación para la democracia: es una herramienta poderosa cuyo impacto dependerá del marco normativo, de los controles éticos y, sobre todo, de nuestra cultura cívica.

El AI Act marca un hito al reconocer que ciertas aplicaciones tecnológicas pueden afectar gravemente a los procesos democráticos y al categorizar esos riesgos de forma explícita. Pero el Reglamento, por sí solo, no basta. El desafío es colectivo: exige a los poderes públicos, a los desarrolladores y a la ciudadanía un compromiso activo para proteger los principios democráticos en la era digital.

Solo mediante una vigilancia constante, mayor transparencia y formación crítica, podremos asegurarnos de que esta revolución tecnológica esté al servicio del debate, y no de su silenciamiento.