El Gobierno prioriza la norma para el buen uso de la IA, que obliga a etiquetar el contenido generado por esta tecnología

España avanza hacia la adaptación de su legislación a la normativa europea en materia de Inteligencia Artificial. Esta tecnología trae novedades cada día y el marco todavía va bastante por detrás en ritmo, aunque estamos viendo avances. Hace una semana, el Consejo de Ministros aprobó el anteproyecto de Ley de gobernanza de la Inteligencia Artificial, con la que busca garantizar su buen uso con límites como la obligación de identificar contenido generado por esta tecnología.

La Unión Europea promulgó la primera ley integral sobre este campo en el mundo hace poco más de un año (el Reglamento de Inteligencia Artificial – RIA). Este texto es obligatorio para los países que la conforman, pero también sentó unas bases para los Estados en general. Ahora, el Gobierno ha decidido lanzar por vía de urgencia este anteproyecto de ley que busca garantizar un uso ético de la IA, a la par que inclusivo y beneficioso para las personas.

A pesar de que hablamos de una norma que se adapta a la europea, este paso es realmente positivo. El abogado especializado en derecho digital, Víctor Salgado, lo explicaba así en declaraciones a la Cadena Ser: “He comentado muchas veces que la Inteligencia Artificial está dando pasos agigantados y cada vez es más difícil diferenciar la realidad de la ficción. Es una ley que necesitamos para empezar a concretar el marco en nuestro país”.

Para Víctor Salgado, uno de los puntos más importantes era justamente “establecer los medios y las competencias para que se pueda sancionar por un mal uso de la tecnología”. Y es que garantizar nuestros derechos digitales pasa justamente por ese punto, el de identificar prácticas prohibidas.

Ley de Inteligencia Artificial de la Unión Europea: primeros pasos en la regulación del campo

Si bien la IA tiene usos muy beneficios, también se está utilizando para todo lo contrario. Una de las fórmulas más extendidas son los deepfakes, una técnica que emplea esta tecnología para generar fotos o vídeos falsos sobre un sujeto real. Un claro ejemplo son las imágenes falsas de desnudos de personas famosas. Esta ley pone un límite a prácticas como ésta gracias a que identifica prohibiciones concretas y sistemas de alto riesgo.

Prácticas prohibidas de la IA

Esta norma, siguiendo el RIA, señala varias prácticas prohibidas con respecto a la IA, empezando por el uso de técnicas para manipular las decisiones de una persona causándole un perjuicio, destacando aquellas en las que se aprovecha de una situación de vulnerabilidad. Un ejemplo serían aquellas tecnologías que se dirigen directamente a menores, a personas con discapacidad o incluso a personas con adicciones y sacan un rédito económico de ellas como puede ser a través de un juego online.

Otro punto que destaca, al igual que hemos visto en el Reglamento IA, es el de identificar o clasificar a los individuos en función de sus características sociales. Esta es una cuestión especialmente delicada, ya que hay aplicaciones que funcionan por IA que se utilizan para determinar si una persona accede o no a un puesto de trabajo o a una Universidad. Estas pueden incluir sesgos graves, habiendo casos en los que se discrimina por raza o género.

Además, el texto también remarca como práctica prohibida el inferir emociones en centros de trabajo o educativos como método de evaluación para promoción o despido laboral. En general, estas praxis están muy relacionadas con la clasificación de las personas y el mal uso o recogida de datos sensibles como los sociales o biométricos. Esta información solo se debe utilizar para casos excepcionales relacionados con, por ejemplo, cuestiones de seguridad, y no en el día a día de una empresa.

De hecho y en línea igualmente con el RIA, la ley también habla de sistemas de IA de alto riesgo, señalando los siguientes:

  1. Aquellos que puedan añadirse como elementos de seguridad a productos industriales, juguetes, equipos radioeléctricos, productos sanitarios incluyendo diagnósticos in vitro y productos de transporte.
  2. Sistemas de biometría, infraestructuras críticas, educación, empleo y de acceso a servicios privados esenciales, entre otros.
  3. Sistemas para la garantía del derecho, migración, asilo y gestación del control fronterizo.
  4. Sistemas para su uso en la administración de justicia y en procesos democráticos.

Este tipo de tecnologías deberán cumplir con unas obligaciones en materia de gestión de riesgos y deberán tener supervisión humana. Al tratarse de temas delicados a nivel de información, deben ser sistemas controlados a diferentes niveles.

Sanciones de hasta 35 millones de euros

Siguiendo igualmente el RIA, las sanciones que han anunciado desde el Ministerio varían en función de la gravedad del caso. Las infracciones muy graves se sitúan entre los 7,5 y los 35 millones de euros, o entre el 2% y el 7% del volumen de negocio mundial de la empresa que haya cometido el delito. Entre estos casos están la no comunicación de un incidente grave o el incumplimiento de las órdenes de una autoridad de vigilancia de mercado.

Entre las infracciones graves nos encontramos el no cumplir con la obligación de etiquetar una imagen, audio o vídeo generado o manipulado con IA y que muestre a personas haciendo cosas que nunca han sucedido, es decir, el llamado deepfake. La norma apunta a que siempre habrá que identificar esto como contenido generado por IA «de manera clara y distinguible», aunque no da pautas al respecto.

Además, no introducir la supervisión humana o los sistemas de gestión de calidad en los casos requeridos también se considera infracción grave. En estos casos, las sanciones serán entre 500.000 euros y 7,5 millones de euros o entre el 1% y el 2% del volumen de negocio.

Y ahora la pregunta es, ¿quién es el organismo encargado de vigilar este uso legal de la IA? Depende de cada caso. La Agencia Española de Protección de Datos se encargará de los sistemas de gestión de migraciones y asilo relacionados con las Fuerzas y Cuerpos de Seguridad del Estado; el Consejo General del Poder Judicial de los sistemas de IA en administración de justicia y la Junta Electoral Central para los implicados en procesos electorales; el Banco de España para sistemas de clasificación de solvencia crediticia; la Dirección General de Seguros para los de seguros y la Comisión Nacional de Mercados y Valores para los de mercados de capitales. El resto de casos serán estudiados por aquellas autoridades que ya estaban haciendo este trabajo por defecto y por la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), cuya sede tenemos precisamente en A Coruña.

Esta legislación es un primer paso muy necesario para el país, ya que establece unas pautas, con prohibiciones y sanciones, para el uso ético de la IA. Con todo, desde Pintos & Salgado esperamos que sigan avanzando en la regularización de esta tecnología. Si estás buscando un bufete especializado en derecho digital en A Coruña, contacta con nosotros y te ayudaremos en todo lo que necesites.