Las últimas semanas una noticia invadió la actualidad digital. Meta anunció que iba a utilizar los datos de sus usuarios de Instagram y Facebook para entrenar a su inteligencia artificial. Saltaron las alarmas, aparecieron tutoriales sobre cómo desactivar esta función y las agencias de protección de datos de los países y la propia UE se opusieron a la idea. Después de todo, Meta anunció el pasado 14 de junio que paralizaba el entrenamiento de su IA en la Unión.
A finales de mayo, los usuarios de Instagram y Facebook empezaron a recibir un aviso de que sus publicaciones, incluyendo fotos y pies de foto, además de sus datos, iban a ser utilizados para el entrenamiento de la IA de la compañía. A pesar de que Meta se justificaba con un “interés legítimo”, no estaba claro que esta acción encajase en el término. El anuncio despertó una reacción negativa en buena parte de la ciudadanía y diferentes organismos.
En España, la Organización de Consumidores y Usuarios (OCU) no tardó en denunciar a Meta ante la Agencia Española de Protección de Datos (AEPD) por esta nueva política de privacidad. Como señaló en un comunicado, el organismo actuó ante “la falta de transparencia” que “esconde una autorización final sobre el uso de datos personales para el desarrollo de su herramienta de IA, complicada de identificar y de oponerse”.
Después de todas las reacciones y de que la Autoridad de Protección de Datos de Irlanda (DPC), país donde Meta tiene su sede social en Europa, le pidiera que detuviese el proyecto de entrenamiento de su IA, la compañía anunció la paralización. Lo hizo tras una intensa negociación entre ambas partes. El anuncio lo formalizó la DPC, quien “celebra la decisión de Meta de pausar el entrenamiento de sus grandes modelos de lenguaje de IA con el contenido compartido por adultos en Facebook e Instagram en la Unión Europea y el Espacio Económico Europeo”.
The DPC welcomes the decision by Meta to pause its plans to train its large language model using public content shared by adults on Facebook and Instagram across the EU/EEA. This decision followed intensive engagement between the DPC and Meta.
Read https://t.co/VkMpdqgcmD pic.twitter.com/IzkF4syVm1
— Data Protection Commission Ireland (@DPCIreland) June 14, 2024
Ambas partes seguirán trabajando juntas. A pesar de haber llegado a este acuerdo, Meta apunta en un comunicado que “les decepciona” la solicitud de “retrasar el entrenamiento de sus grandes modelos de lenguaje”. “Esto es un retroceso para la innovación europea, la competencia en el desarrollo de la IA y retrasa aún más el beneficio de la IA para las personas en Europa”, remarcan desde la compañía.
El abogado especializado en derecho digital, Víctor Salgado, apuntó en declaraciones a la Cadena Ser que no está de acuerdo con esta línea: “yo creo que, más bien, esta revolución será más segura y con más garantías de respeto a nuestros derechos”. Para él, las agencias de datos europeas y en concreto la DPC “han tomado la mejor decisión posible, que es no utilizar las publicaciones para entrenar a su IA”.
Ley de Inteligencia Artificial de la Unión Europea: primeros pasos en la regulación del campo
Víctor Salgado ya había advertido de los problemas que presentaba este proyecto. Uno de ellos y el que más se comentó entre la opinión pública es lo complicado que era para los usuarios evitar que utilizasen sus datos para el entrenamiento de IA. “Ellos no basan el tratamiento en el consentimiento, sino que dicen que tienen el derecho a hacerlo, lo que puede ser una antesala de una sanción en el futuro por parte de la UE o agencias nacionales”, destacaba el abogado especializado en Derecho Digital antes del anuncio de la paralización.
Aunque los usuarios sí podían negarse al uso de sus datos, era un procedimiento complicado. Debían cubrir un formulario, uno por cada red social, que se encontraba en el apartado de ajustes. Es decir, era el propio usuario el que tenía que tomar la iniciativa.
Una vez encontrado el formulario debía aceptar varias opciones y, finalmente, responder a la pregunta de por qué se oponía. Aún así, Víctor Salgado advertía de los “peros”: “en ningún momento ellos se responsabilizan de que otra persona comparta mis fotos o utilice algo de mis contenidos y ellos lo hayan autorizado o se hayan opuesto”.
Por ahora los usuarios ya no tienen que preocuparse de esto, al menos de momento, gracias a la paralización. Con todo, es importante mantenerse alerta y atender a los avisos de actualización de las políticas de privacidad de todas las aplicaciones o páginas web. Como se suele decir, no hay nada gratis, y en estos casos las personas suelen pagar con sus datos.
Otros ejemplos de entrenamiento de IA
A pesar de que la noticia de Meta fue la más llamativa, hay otros casos de entrenamiento de IA por parte de aplicaciones muy conocidas. Uno de ellos fue Adobe, que había modificado sus políticas de uso advirtiendo de que utilizaría los proyectos, archivos y contenidos de sus usuarios para entrenar sus modelos de IA.
Además, en este caso concreto, los creadores tenían que aceptar sí o sí las condiciones o no podrían utilizar sus aplicaciones, entre las que están Photoshop y Lightroom. Muchas personas se pronunciaron por redes sociales advirtiendo de que buscarían alternativas. En los últimos días, Adobe ha reculado y permitirá a los usuarios negarse a este uso.
También X (anteriormente Twitter) anunció en agosto de 2023 una nueva política de privacidad que permitía el uso del contenido de sus usuarios para el entrenamiento de su IA. Elon Musk, dueño de la compañía, recalcaba que utilizarían datos públicos, no otros como los mensajes privados.
Los riesgos de la inteligencia artificial y nuestras recomendaciones
¿Qué se recomienda a los usuarios? Es verdad que muchas veces es complicado proteger los datos personales en aplicaciones gratuitas como las mencionadas. A pesar de ello, es fundamental mantenerse siempre informados del uso que hacen las compañías de lo que publicamos y poner límites si es posible, como en el ejemplo de Adobe.
Otra medida que se aconseja es acotar el contenido que se sube a las plataformas. Cuanta más información personal, más datos tendrán las compañías sobre cada usuario y su vida privada, incluso sobre los sentimientos. Hay que recordar que la Unión Europea y las autoridades de protección de datos nacionales trabajan cada día por la protección de la privacidad de los usuarios. Además, se está avanzando en la legislación con normativas como la Ley de Inteligencia Artificial europea.
Si tienes cualquier duda sobre este tema u otros relacionados con el derecho digital, contacta con nuestro bufete de abogados en A Coruña. Nuestros expertos en materia de protección de datos pueden asesorarte cuando lo necesites.