Meta, empresa matriz de WhatsApp, Facebook e Instagram, ha decidido poner fin a su programa de colaboración con fact-checkers y verificadores de información. En su lugar, va a implementar un sistema de “notas de la comunidad” similar al de X.
Mark Zuckerberg, CEO de Meta, anunciaba esta medida en un comunicado en Facebook como defensa de la libertad de expresión y corrección de errores que, supuestamente, provoca la moderación de contenidos.
¿La desaparición de este sistema supone una puerta abierta a contenidos peligrosos para los usuarios de las aplicaciones de la compañía?
Cómo funcionaba el programa de verificación de datos de Meta
El programa de verificación de datos de Meta, iniciado en 2016, funcionaba en colaboración con organizaciones independientes certificadas por la International Fact-Checking Network (IFCN), esto es, adscritas a su Código de Principios.
Estas entidades revisaban, a petición de Meta, contenido potencialmente falso o engañoso en las plataformas de la empresa, incluyendo publicaciones orgánicas, promocionadas, vídeos, imágenes y texto.
Una vez identificado el contenido sospechoso, los verificadores analizaban su veracidad mediante investigaciones propias, contrastando la información y usando estándares periodísticos.
Las publicaciones eran etiquetadas según su grado de falsedad. Utilizaban categorías como “Falso”, “Parcialmente falso”, “Alterado” o “Falta contexto”. La clasificación permitía a Meta reducir su distribución y añadir advertencias para informar a los usuarios.
Esto no era censura
Este sistema hacía que los verificadores externos, siguiendo los estándares de la IFCN, no censuraran directamente el contenido, sino que lo etiquetaran según su veracidad.
La decisión final sobre la eliminación de una publicación recaía en Meta, que actuaba conforme a sus políticas comunitarias.
El trabajo de los verificadores externos en el sistema de Meta demostró ser efectivo para combatir la desinformación, reduciendo significativamente su difusión en páginas de Facebook y generando un impacto positivo en la calidad de la esfera pública. La eficacia del sistema ha sido respaldada en investigaciones publicadas en Science y Nature.
Los verificadores se adherían a principios de neutralidad, transparencia y metodología rigurosa, garantizando un proceso imparcial y transparente.
Así, las afirmaciones de Zuckerberg en su comunicado acusando a los verificadores de “censores” (muy en la línea de la narrativa propia de los desinformadores) no tienen ninguna coherencia.
¿Qué va a ocurrir a partir de ahora?
Además de la colaboración con verificadores externos, Meta emplea sistemas automatizados para detectar contenido que infringe sus políticas, como desnudos, violencia gráfica o discursos de odio.
Estos sistemas utilizan técnicas de IA para analizar y filtrar automáticamente contenido prohibido por sus normas comunitarias, como productos o servicios ilegales, drogas, tabaco, armas de fuego, contenido sexualmente sugerente, violencia explícita y discursos de odio (también la información errónea).
No obstante, la detección de desinformación y la identificación de contenido explícito son procesos distintos que requieren tecnologías especializadas para cada caso. Detectar y censurar, por ejemplo, pezones femeninos, es bastante más fácil tecnológicamente que identificar una media verdad o una descontextualización.
La eliminación del programa de verificadores de Meta afecta a la contención de bulos y desinformación, pero, aunque Mark Zuckerberg no lo ha hecho explícito, se entiende que las restricciones de contenido sexual, violento, etc. se mantendrán vigentes para garantizar un entorno seguro para los usuarios.
El sistema de notas
El sistema de “notas de la comunidad” que se implementará en Meta es similar al usado desde 2023 en X. Aquí no hay verificadores externos, se pide a los propios usuarios que sean ellos los que contextualicen y proporcionen información adicional sobre las publicaciones objeto de escrutinio ante una posible desinformación.
Pero este sistema afronta desafíos que limitan su eficacia. Según expertos, en temas altamente polarizados como la política, estos avisos son menos efectivos debido a la falta de consenso entre usuarios de diferentes tendencias ideológicas.
Además, se ha observado que grupos enfrentados utilizan las notas como un campo de batalla, lo que puede desvirtuar su propósito original.
Una investigación realizada por Poynter, que analizó 3.637 notas publicadas durante el Día de las Elecciones en Estados Unidos, reveló que solo el 29% de los tuits verificables recibieron notas útiles. Menos del 6% de las notas en los días previos a la elección alcanzaron un estado de “útil”, y únicamente el 13% de todos los avisos de usuarios publicados durante ese periodo estaban relacionados con las elecciones.
Es decir, que el modelo de “notas” tuvo un impacto marginal en la calidad de la información electoral. El sistema no puede sustituir el trabajo de los verificadores profesionales (suscritos a estándares internacionales periodísticos), y refleja limitaciones significativas en su capacidad para combatir eficazmente la desinformación.
¿Por qué este cambio de posición?
Hasta ahora, Meta y Zuckerberg han defendido a capa y espada su programa de verificación con terceros, destacando su eficacia en la lucha contra la desinformación. Con este comunicado, el viraje político de la compañía se hace bastante evidente.
La decisión de finalizar este programa coincide con la reelección de Donald Trump como presidente de EE UU, lo que algunos analistas interpretan como un intento de alinearse con la nueva administración, adoptando enfoques similares al de Elon Musk en X.
Esta postura ha generado críticas, ya que podría facilitar la propagación de desinformación y discursos de odio en las plataformas de Meta.
El viraje político
Meta ha tomado decisiones que refuerzan esta percepción de alineamiento político. Por ejemplo, en agosto de 2024, la empresa desmanteló CrowdTangle, una herramienta esencial para monitorizar desinformación en Facebook e Instagram. Además, Meta ha incorporado a su consejo de administración a figuras cercanas al entorno de Trump, como Dana White, presidente de Ultimate Fighting Championship (UFC) o el republicano Joe Kaplan.
No olvidemos una motivación mucho más material detrás de esta decisión: la desinformación genera mayor interacción y actividad en las redes sociales, lo que se traduce en más ingresos publicitarios para las plataformas.
Al relajar las medidas contra la desinformación, Meta podría estar buscando incrementar la participación de los usuarios y, por ende, sus beneficios económicos.
La eliminación del anonimato
Ante la creciente preocupación por el protagonismo de los bulos y la desinformación, algunos expertos abogamos por la necesidad de un cambio radical en el uso de redes sociales. Una de las propuestas más contundentes es la eliminación del anonimato en las cuentas. Los usuarios deberían estar obligados a publicar bajo su nombre y apellidos, sin refugiarse en el escudo de seudónimos, práctica que fomenta los insultos, el acoso y la impunidad.
¿Seguiría un usuario siendo capaz de criticar o insultar tan alegremente a alguien si lo tuviera delante físicamente?
Un cambio de estas características permitiría responsabilizar a las personas de sus actos y palabras en el entorno digital, igual que en la vida analógica.
Esta propuesta necesita también de un marco legal que sancione de manera efectiva la difusión intencionada de desinformación. El marco legislativo español actual, por ejemplo, no lo penaliza de manera específica, pero existen casos en los que sí ha sido sancionada.
Penalizar y validar socialmente este nivel de responsabilidad sobre nuestras palabras, ejerciendo efectiva y honestamente la tan defendida libertad de expresión, harían mucho más difícil que pudieran llevarse a cabo situaciones tan extremas como las campañas coordinadas de sospechas infundadas sobre el número real de víctimas por la dana en el parking de Bonaire.
La eliminación del programa de verificación profesional de Meta supone, por tanto, una muy mala noticia para la lucha contra la desinformación que puede provocar, desgraciadamente, aún más polarización.
*Artículo publicado por Javier Cantón Correa, investigador asociado en el Departamento de Ciencias de la Computación e Inteligencia Artificial, Universidad de Granada, para el sitio de divulgación científica The Conversation.