jueves, 9 enero, 2025
InicioSociedad2025: el año en el que la desinformación en las plataformas tendrá...

2025: el año en el que la desinformación en las plataformas tendrá vía libre?

Al anunciar esta semana que Facebook ponía fin, por el momento en Estados Unidos, a la financiación de organizaciones dedicadas a la verificación de datos, Mark Zuckerberg destacó su deseo de no disgustar al nuevo presidente Trump. Pero también señaló que en las redes sociales la moderación de contenidos falsos o francamente tóxicos está en declive desde hace años.

Así, en Twitter, desde su adquisición por parte de Elon Musk en 2022, múltiples investigaciones han demostrado un crecimiento acelerado de los insultos y amenazas dirigidos contra científicos, médicos o climatólogos, entre otros. Además de mensajes racistas y comentarios de odio que se han viralizado con mayor facilidad. 

Los medios de comunicación especializados en fact-checking, a los que Mark Zuckerberg en su mensaje acusó de censura, reaccionaron rápidamente para recordarnos que nunca han tenido el poder de hacer desaparecer nada en Facebook: Facebook tiene pleno poder sobre las etiquetas que se pueden colocar en los mensajes (“falso” o “engañoso”), así como sobre los impactos de estas etiquetas (reducción del alcance o “desmonetización”).

A lo largo de los años, informa el medio estadounidense Lead Stories, «a menudo hemos recomendado a Meta cambios en el tamaño o en la redacción de las etiquetas», pero sin éxito. A esto se suma el hecho de que los recursos limitados de las organizaciones de verificación de datos sólo les permiten verificar una pequeña porción de información cuestionable, señala el presidente del Instituto Poynter, que dirige el medio de noticias PolitiFact . 

Con este anuncio, “la batalla por la moderación de contenidos finalmente se ha perdido”, escribió el columnista de tecnología de la revista científica New Scientist el 7 de enero.  Esta es también la reacción del News Literacy Project, una organización estadounidense dedicada a la educación informacional: «este gesto demuestra que Meta ha abandonado en gran medida los esfuerzos de moderación que recuerdan a la gente cuáles son los hechos y animan a la gente a buscar fuentes de información creíbles y basadas en estándares». Sin embargo, los usuarios de Facebook «son vulnerables a la manipulación por parte de actores maliciosos que promueven fuentes no confiables e información fabricada específicamente para explotar nuestros sesgos cognitivos, incluido nuestro deseo de confirmar nuestras ideas y creencias preconcebidas».

Los orígenes de una asociación con Facebook

Esta “batalla” por la moderación de contenidos en las plataformas comenzó en parte a finales de 2016 con el shock que representó la elección de Donald Trump. Por primera vez, las plataformas se vieron obligadas a admitir que la proliferación de desinformación no era algo marginal, como habían afirmado anteriormente. En este contexto, Facebook creó en diciembre de 2016 un programa de verificación de datos confiado a “terceros”, es decir, medios de comunicación acreditados por una organización independiente, la Red Internacional de Verificación de Datos (IFCN), encargada de garantizar que firman un Código de Principios: este es un compromiso de producir contenido “no partidista”.

Ampliado en 2017 a otros países, el programa permitió el surgimiento de varios pequeños medios de comunicación que, como resultado, pasaron a depender de la financiación de la multinacional estadounidense: un medio recibe dinero en proporción a las verificaciones que puede realizar.

Cuando llegó la pandemia en 2020, la magnitud de la amenaza hizo creer que las plataformas habían tomado nota de la peligrosa influencia que podían tener sobre la salud pública: por primera vez, habían reaccionado de común acuerdo. Por ejemplo, cualquier búsqueda en Google que contenía palabras clave como “COVID” o “vacunas” iba rápidamente acompañada de enlaces a la Organización Mundial de la Salud o al Ministerio de Salud del país. Facebook y Twitter también habían destacado estos vínculos. YouTube había añadido carteles que conducían a fuentes creíbles y, sobre todo, apolíticas. 

Sin embargo, rápidamente nos dimos cuenta de que el hecho de que el contenido fuera etiquetado como “falso” no significaba que desapareciera del espacio público. Ya en el verano de 2020, un estudio de la Universidad McGill concluyó que el nivel de exposición a las redes sociales parecía fomentar falsas creencias sobre el COVID y reducir el cumplimiento de las medidas sanitarias. Parecía faltar voluntad para actuar: los informes señalaban a menudo que podrían pasar meses antes de que se cerraran las cuentas denunciadas por incitación al odio.

Problema aún más grave

En 2021 supimos que las noticias sobre COVID más populares en Facebook durante el primer trimestre habían sido noticias falsas. Finalmente, en el otoño de 2021, los “Documentos de Facebook” (decenas de miles de páginas distribuidas a los medios por una ex empleada, Frances Haugen) revelaron que los ejecutivos de Facebook sabían mucho más de lo que habían admitido públicamente sobre los impactos dañinos de los algoritmos, desde su influencia en las masacres en Myanmar hasta ayudar al surgimiento de QAnon y grupos antivacunas. 

Según una encuesta realizada en 54 países en 2023 entre 300 académicos especializados en desinformación, dos tercios consideraron que “la incapacidad de responsabilizar a las empresas de redes sociales” por su inacción contra la desinformación y el discurso de odio, tarde o temprano plantearía un problema aún más grave. Una de las preocupaciones era que los políticos de países democráticos comenzaran a “tomar prestadas” estrategias de comunicación de aquellos en regímenes autoritarios, considerando el éxito que les reportaban los algoritmos.

En su anuncio del 7 de enero, Mark Zuckerberg afirmó que el programa de terceros sería reemplazado por un programa de “notas comunitarias” (notas escritas por los propios usuarios) como el que existe en Twitter desde 2021. 

Sin embargo, su eficacia aún está por demostrar: según un estudio publicado el pasado noviembre, la llegada de estas notas a Twitter (ahora X) no redujo el “compromiso” con la desinformación. Los investigadores califican el sistema de demasiado lento: un número indeterminado de participantes debe haber aprobado una nota para que se muestre en un mensaje, lo que puede tardar días, mientras que los lectores de este mensaje han pasado a otra cosa durante mucho tiempo. Además, para saber que un mensaje es verdadero o falso hay que investigar durante unas horas o unos días, algo que los periodistas remunerados pueden permitirse, pero no los ciudadanos voluntarios. En un artículo publicado en diciembre, el sitio de verificación de datos Science Feedback escribió que el 69% de las 900 publicaciones sobre X que habían sido identificadas como falsas o engañosas no tenían calificación por parte de la comunidad.

¿Un debate sobre la moderación a seguir en Europa?

En 2025, el debate sobre la moderación tal vez se traslade a Europa. Un aspecto de la ley europea sobre tecnología digital adoptada en 2023 ( Ley de Servicios Digitales ) es que exige que las grandes plataformas sean más transparentes sobre sus sistemas de recomendación de contenidos, es decir, sus algoritmos. En particular, la ley exige que las plataformas establezcan un sistema para denunciar contenidos problemáticos. Es en este contexto que la Comisión Europea anunció en diciembre de 2023 una investigación sobre X , por presuntas violaciones de las normas europeas sobre moderación de contenidos y transparencia. 

Más noticias
Noticias Relacionadas