Meta eliminará su programa de verificación de contenido, pero no en Europa

Meta, empresa que agrupa a Facebook, Instagram, WhatsApp y Threads, anunció a principio de año la decisión de eliminar su programa de verificación de contenido. Una noticia que no se esperaba y que implica un acercamiento de Mark Zuckerberg, director de la empresa, a las políticas de Trump y Elon Musk, dueño de X. Este anuncio no gustó a muchos dirigentes, pero se ha demostrado que la normativa europea funciona, ya que, por lo menos por ahora, la verificación de contenidos seguirá activa en la Unión.

Echando la vista atrás, el siete de enero saltaron las alarmas cuando Zuckerberg publicaba un comunicado en forma de vídeo en el que anunciaba un ajuste en la regulación de las publicaciones en Meta. El director de la compañía justificaba la decisión de eliminar la verificación de contenidos a través de un “panorama político cambiante y un deseo de abrazar la libertad de expresión”.

 

Ver esta publicación en Instagram

 

Una publicación compartida de Mark Zuckerberg (@zuck)

Esto supone un cambio radical con respecto a su posición hasta ahora. Hace apenas cuatro años, Zuckerberg llegó a suspender las cuentas de Donald Trump en Facebook e Instagram por incitar al odio tras el asalto al Capitolio. Además, el año pasado durante las elecciones al Parlamento Europeo, Meta presumía de la eficacia de su sistema de verificación de contenido y del hecho de que el 95% de las personas clicaban en las etiquetas de verificación de las publicaciones.

Ahora, el magnate quiere acabar con este sistema y se apoya en los resultados electorales y en la llegada de Trump al poder como el momento para “priorizar la libertad de expresión”. Zuckerberg ha remarcado que los verificadores cometen muchos errores y que son una “censura”: “han estado demasiado sesgados políticamente y han destruido más confianza de la que han creado”.

De este modo ha justificado la decisión de suspender este trabajo en Meta en lo que se refiere a información política, destacando especialmente los temas de inmigración e identidad de género. Sí que mantendrá la verificación en temas que se consideran más graves como la explotación sexual, las drogas o el terrorismo.

Antes, la normativa de Meta impedía publicar un “discurso deshumanizante en forma de comparaciones o generalizaciones”. Es decir, no se podía afirmar que todo un colectivo fuese, por ejemplo, terrorista. Ahora sí que se podrá y el nuevo director de Asuntos Globales de la compañía, Joel Kaplan, lo justifica de la siguiente manera: “No está bien que se puedan decir cosas en la televisión o en el pleno del Congreso, pero no en nuestras plataformas”.

Estas palabras y el desprecio al trabajo de los verificadores trajeron consigo numerosas reacciones. La European Fact-Checking Standards Network (EFCSN) ha publicado un comunicado en el que se ha mostrado “decepcionada” por la decisión de poner fin al programa de verificación. La presidenta de la entidad, Clara Jiménez Cruz, ha sido clara: “Esto parece más una medida motivada por la política en el contexto de la presidencia de Donald Trump en Estados Unidos que una decisión basada en evidencia de que el programa no funcione”.

Por otro lado, la EFCSN ha recordado que “el fact-checking no es censura, ni mucho menos, el fact-checking añade discurso a los debates públicos, proporciona contexto y hechos para que cada ciudadano pueda formarse su propia opinión”. La asociación de verificadores europeos ha insistido en que ellos investigan y publican pruebas sobre aquellas cuestiones que son falsas, pero que la decisión final de qué hacer con el contenido siempre fue de Meta.

Siguiendo con esta línea, es importante recordar que estos profesionales se rigen por unas normas de imparcialidad, transparencia, integridad y responsabilidad. Con el nuevo procedimiento que va a adoptar Meta esto no va a ocurrir, ya que se deja la verificación en manos de usuarios no profesionales.

Las notas de la comunidad

Ante la eliminación de este programa aparece un sistema similar al de X, donde es la comunidad de usuarios la que puede agregar notas que indiquen la veracidad o no de las publicaciones. La experiencia nos dice que este sistema no es el más adecuado y que incluso promueve discursos de odio, aumentando la polarización.

“En este caso Meta, en una decisión sorpresiva, decidió dejar de verificar los contenidos que se publican en la plataforma, como ya se venía haciendo en otras plataformas como X, y dejarlo en manos de la comunidad. Desgraciadamente vemos que no es lo mejor ni muchísimo menos, todo lo contrario”, lamenta el abogado especializado en derecho digital, Víctor Salgado, en declaraciones a la Cadena Ser.

Explica que esta medida lleva a que las plataformas sean un “campo abonado para que los bots puedan manipular determinados contenidos” y donde la desinformación se multiplica. Todo en un contexto en el que se avecinan importantes periodos electorales, concretamente en Europa.

Esta función de notas de la comunidad implantada en X y otras decisiones tomadas por Musk han llevado a que muchos usuarios e incluso entidades o personalidades destacadas abandonen la red. Lo hacen ante la proliferación de discursos de odio y el posicionamiento próximo a la extrema derecha que mantiene el actual propietario, algo que podría ocurrir ahora con Meta. La alternativa a ella está siendo Bluesky, fundada por Jack Dorsey, creador del Twitter original.

Víctor Salgado reflexionó sobre esta nueva plataforma en una entrevista en Galicia Digital, destacando que tiene un sistema más refinado y efectivo que X y que puede ser una referente. Con todo, él incide en la posibilidad de “plantearnos una red social de titularidad pública, un proyecto de la UE que viviese fuera de servilismos y lucros, en libre concurrencia con el resto de las plataformas”.

Meta mantiene la verificación de contenidos en Europa

Uno de los puntos positivos de la noticia es que, por lo menos por ahora, Meta continuará con el programa de verificación de contenido en Europa. Dentro del comunicado en vídeo, Zuckerberg celebra la perspectiva de Trump con respecto a la libertad de expresión y critica una “censura institucionalizada” por parte de la UE. En realidad, la normativa europea lo que busca es proteger los derechos fundamentales de los ciudadanos también dentro de las redes sociales.

Meta paraliza el entrenamiento de su IA en Europa

Víctor Salgado remarca que esta buena noticia viene por el cumplimiento de la ley, “no porque ellos hayan tenido ninguna voluntad”. “La Ley de Servicios Digitales obliga a moderar estos contenidos”, recuerda el abogado especializado en Derecho Digital.

El portavoz de la Comisión Europea de soberanía tecnológica, Thomas Regnier, ha explicado que “antes de implementar funcionalidades que puedan tener un impacto crítico en los riesgos sistémicos, las plataformas en línea de gran tamaño deben realizar una evaluación de riesgos y presentar un informe a los servicios de la Comisión”. Además, añadió que Meta es parte del Código de prácticas sobre desinformación en el que hay compromisos concretos con verificación de datos.

Desde Pintos & Salgado seguiremos de cerca este caso y otros de actualidad que afectan especialmente a los usuarios. Si quieres conocer todas las novedades sobre Derecho Digital, sigue nuestro blog y contáctanos para cualquier duda.