El término “Inteligencia Artificial” (IA) fue utilizado por primera vez en 1956 durante la Conferencia de Dartmouth. Este evento marcó el inicio de una revolución tecnológica, que ha seguido desarrollándose hasta nuestros días y ha dejado una huella indeleble en la sociedad moderna. Pese a ello, no está exenta de desafíos, pues su automatización y eficiencia traen consigo problemas de privacidad y ciberseguridad.
Uno de los usos más controvertidos es la generación de desnudos digitales, conocidos como deepfake. Esta práctica implica la creación de imágenes o vídeos que muestran desnudos que en realidad son productos de software avanzado. Funcionan mediante un sistema de redes neuronales generativas antagónicas (GAN, por sus siglas en inglés) que replican patrones visuales y texturas humanas hiperrealistas.
Pero ¿qué instrumentos son los que generan estos desnudos? Existen infinidad de recursos fáciles de encontrar tanto en la nube como en aplicaciones, así como en webs o incluso a través de bots en Telegram. Estas herramientas permiten crear estas instantáneas sin necesidad de disponer de un equipo informático avanzado. De hecho, las más populares actualmente son Clothoff y Nudify, donde solo necesitas un correo, hacer clic en la casilla de aceptar términos y condiciones y ya estás dentro. Fácil, ¿verdad?
Pues bien, las reglas de estas aplicaciones se centran en tres requisitos: ser mayor de edad, no usar imágenes de menores o de personas que no hayan dado su consentimiento y ser responsable de la autoría de estas. Ahora, ¿son medidas suficientes para preservar la protección de los usuarios? La respuesta claramente es no, puesto que no existe ningún tipo de control interno que verifique la veracidad de la identidad de estos y, mucho menos, el consentimiento de quienes aparecen en ellas y su posterior difusión.
Un ejemplo de los riesgos derivados de la IA es el reciente caso en Almendralejo (Badajoz), donde veintidós menores se han visto afectadas por la creación y difusión de imágenes realistas de ellas desnudas. Entonces, ¿qué delitos podrían ser imputables en este caso? Dada su complejidad debemos tener en cuenta diversas consideraciones legales.
En primer lugar, para iniciar un análisis del caso, tendremos que acudir al pilar de nuestro ordenamiento jurídico, la Constitución Española. Ésta nos remite al artículo 18 que garantiza el derecho al honor, a la intimidad personal y familiar y a la propia imagen y, además, limita el uso de la informática. Por ello, la difusión de estas imágenes conlleva una intromisión ilegítima en el derecho a la propia imagen, según lo dispuesto en la Ley Orgánica 1/1982, de 5 de mayo, de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen. De manera que estaríamos hablando de un ilícito civil con sanciones indemnizatorias.
Además, existen implicaciones penales por la vulneración de la intimidad del menor con penas de prisión de tres a cinco años (artículo 197 CP), por pornografía infantil “simulada” mediante IA con penas de prisión de cinco a nueve años (artículo 189 CP) y por extorsión con penas de prisión de uno a cinco años (artículo 243 CP).
Asimismo, existe una vía de reclamación preferente auspiciada por la Agencia Española de Protección de Datos (AEPD), en base al artículo 52 de la Ley Orgánica de protección integral a la infancia y la adolescencia frente a la violencia, que establece canales seguros para denunciar tales hechos y fija infracciones administrativas a los mayores de 14 años. Es más, la AEPD ya impone multas de 10.000 euros a los padres por las ciberagresiones que cometen sus hijos.
En resumen, la evolución de la inteligencia artificial ha llevado a la creación de tecnologías increíblemente avanzadas. Sin embargo, este desarrollo tecnológico ha desencadenado también una serie de desafíos éticos y legales que deben abordarse con urgencia.
La facilidad con la que se puede acceder a estas herramientas plantea serias preocupaciones sobre la privacidad y la protección de datos. La regulación actual resulta insuficiente y, en este contexto, es esencial que se tomen medidas más rigurosas para abordar estos problemas emergentes.
Se necesita una legislación más específica y actualizada que se adapte a los avances tecnológicos y proteja a las víctimas de estas prácticas. Además de incidir aún más en educar y concienciar sobre los riesgos de la IA y la ciberseguridad para prevenir futuros incidentes. En definitiva, debemos encontrar un equilibrio entre la innovación y la protección de los derechos y la privacidad de las personas.