Meta se alinea con Elon Musk y dinamita su sistema de verificación externa: ¿barra libre para contenidos peligrosos en redes sociales?

Por: Javier Cantón Correa

La empresa matriz de WhatsApp, Facebook e Instagram, ha decidido poner fin a su programa de colaboración con fact-checkers y verificadores de información. En su lugar, va a implementar un sistema de “notas de la comunidad” similar al de X. Mark Zuckerberg, CEO de Meta, anunció esta medida como defensa de la libertad de expresión y corrección de errores que, supuestamente, provoca la moderación de contenidos. La propagación de desinformación y discursos de odio, mientras el viraje político de la compañía se hace bastante evidente hacia Donald Trump.

Meta, empresa matriz de WhatsApp, Facebook e Instagram, ha decidido poner fin a su programa de colaboración con fact-checkers y verificadores de información. En su lugar, va a implementar un sistema de “notas de la comunidad” similar al de X.

Mark Zuckerberg, CEO de Meta, anunciaba esta medida en un comunicado en Facebook como defensa de la libertad de expresión y corrección de errores que, supuestamente, provoca la moderación de contenidos.

¿La desaparición de este sistema supone una puerta abierta a contenidos peligrosos para los usuarios de las aplicaciones de la compañía?

Cómo funcionaba el programa de verificación de datos de Meta

El programa de verificación de datos de Meta, iniciado en 2016, funcionaba en colaboración con organizaciones independientes certificadas por la International Fact-Checking Network (IFCN), esto es, adscritas a su Código de Principios.

Estas entidades revisaban, a petición de Meta, contenido potencialmente falso o engañoso en las plataformas de la empresa, incluyendo publicaciones orgánicas, promocionadas, vídeos, imágenes y texto.

Una vez identificado el contenido sospechoso, los verificadores analizaban su veracidad mediante investigaciones propias, contrastando la información y usando estándares periodísticos.

Las publicaciones eran etiquetadas según su grado de falsedad. Utilizaban categorías como “Falso”, “Parcialmente falso”, “Alterado” o “Falta contexto”. La clasificación permitía a Meta reducir su distribución y añadir advertencias para informar a los usuarios.

Foto: Telam

Esto no era censura

Este sistema hacía que los verificadores externos, siguiendo los estándares de la IFCN, no censuraran directamente el contenido, sino que lo etiquetaran según su veracidad.

La decisión final sobre la eliminación de una publicación recaía en Meta, que actuaba conforme a sus políticas comunitarias.

El trabajo de los verificadores externos en el sistema de Meta demostró ser efectivo para combatir la desinformación, reduciendo significativamente su difusión en páginas de Facebook y generando un impacto positivo en la calidad de la esfera pública. La eficacia del sistema ha sido respaldada en investigaciones publicadas en Science y Nature.

Los verificadores se adherían a principios de neutralidad, transparencia y metodología rigurosa, garantizando un proceso imparcial y transparente.

Así, las afirmaciones de Zuckerberg en su comunicado acusando a los verificadores de “censores” (muy en la línea de la narrativa propia de los desinformadores) no tienen ninguna coherencia.

¿Qué va a ocurrir a partir de ahora?

Además de la colaboración con verificadores externos, Meta emplea sistemas automatizados para detectar contenido que infringe sus políticas, como desnudos, violencia gráfica o discursos de odio.

Estos sistemas utilizan técnicas de IA para analizar y filtrar automáticamente contenido prohibido por sus normas comunitarias, como productos o servicios ilegales, drogas, tabaco, armas de fuego, contenido sexualmente sugerente, violencia explícita y discursos de odio (también la información errónea).

No obstante, la detección de desinformación y la identificación de contenido explícito son procesos distintos que requieren tecnologías especializadas para cada caso. Detectar y censurar, por ejemplo, pezones femeninos, es bastante más fácil tecnológicamente que identificar una media verdad o una descontextualización.

La eliminación del programa de verificadores de Meta afecta a la contención de bulos y desinformación, pero, aunque Mark Zuckerberg no lo ha hecho explícito, se entiende que las restricciones de contenido sexual, violento, etc. se mantendrán vigentes para garantizar un entorno seguro para los usuarios.

El sistema de notas

El sistema de “notas de la comunidad” que se implementará en Meta es similar al usado desde 2023 en X. Aquí no hay verificadores externos, se pide a los propios usuarios que sean ellos los que contextualicen y proporcionen información adicional sobre las publicaciones objeto de escrutinio ante una posible desinformación.

Pero este sistema afronta desafíos que limitan su eficacia. Según expertos, en temas altamente polarizados como la política, estos avisos son menos efectivos debido a la falta de consenso entre usuarios de diferentes tendencias ideológicas.

Además, se ha observado que grupos enfrentados utilizan las notas como un campo de batalla, lo que puede desvirtuar su propósito original.

Una investigación realizada por Poynter, que analizó 3.637 notas publicadas durante el Día de las Elecciones en Estados Unidos, reveló que solo el 29% de los tuits verificables recibieron notas útiles. Menos del 6% de las notas en los días previos a la elección alcanzaron un estado de “útil”, y únicamente el 13% de todos los avisos de usuarios publicados durante ese periodo estaban relacionados con las elecciones.

Es decir, que el modelo de “notas” tuvo un impacto marginal en la calidad de la información electoral. El sistema no puede sustituir el trabajo de los verificadores profesionales (suscritos a estándares internacionales periodísticos), y refleja limitaciones significativas en su capacidad para combatir eficazmente la desinformación.

¿Por qué este cambio de posición?

Hasta ahora, Meta y Zuckerberg han defendido a capa y espada su programa de verificación con terceros, destacando su eficacia en la lucha contra la desinformación. Con este comunicado, el viraje político de la compañía se hace bastante evidente.

La decisión de finalizar este programa coincide con la reelección de Donald Trump como presidente de EE UU, lo que algunos analistas interpretan como un intento de alinearse con la nueva administración, adoptando enfoques similares al de Elon Musk en X.

Esta postura ha generado críticas, ya que podría facilitar la propagación de desinformación y discursos de odio en las plataformas de Meta.

El viraje político

Meta ha tomado decisiones que refuerzan esta percepción de alineamiento político. Por ejemplo, en agosto de 2024, la empresa desmanteló CrowdTangle, una herramienta esencial para monitorizar desinformación en Facebook e Instagram. Además, Meta ha incorporado a su consejo de administración a figuras cercanas al entorno de Trump, como Dana White, presidente de Ultimate Fighting Championship (UFC) o el republicano Joe Kaplan.

No olvidemos una motivación mucho más material detrás de esta decisión: la desinformación genera mayor interacción y actividad en las redes sociales, lo que se traduce en más ingresos publicitarios para las plataformas.

Al relajar las medidas contra la desinformación, Meta podría estar buscando incrementar la participación de los usuarios y, por ende, sus beneficios económicos.

La eliminación del anonimato

Ante la creciente preocupación por el protagonismo de los bulos y la desinformación, algunos expertos abogamos por la necesidad de un cambio radical en el uso de redes sociales. Una de las propuestas más contundentes es la eliminación del anonimato en las cuentas. Los usuarios deberían estar obligados a publicar bajo su nombre y apellidos, sin refugiarse en el escudo de seudónimos, práctica que fomenta los insultos, el acoso y la impunidad.

¿Seguiría un usuario siendo capaz de criticar o insultar tan alegremente a alguien si lo tuviera delante físicamente?

Un cambio de estas características permitiría responsabilizar a las personas de sus actos y palabras en el entorno digital, igual que en la vida analógica.

Esta propuesta necesita también de un marco legal que sancione de manera efectiva la difusión intencionada de desinformación. El marco legislativo español actual, por ejemplo, no lo penaliza de manera específica, pero existen casos en los que sí ha sido sancionada.

Penalizar y validar socialmente este nivel de responsabilidad sobre nuestras palabras, ejerciendo efectiva y honestamente la tan defendida libertad de expresión, harían mucho más difícil que pudieran llevarse a cabo situaciones tan extremas como las campañas coordinadas de sospechas infundadas sobre el número real de víctimas por la dana en el parking de Bonaire.

La eliminación del programa de verificación profesional de Meta supone, por tanto, una muy mala noticia para la lucha contra la desinformación que puede provocar, desgraciadamente, aún más polarización.

*Artículo publicado por Javier Cantón Correa, investigador asociado en el Departamento de Ciencias de la Computación e Inteligencia Artificial, Universidad de Granada, para el sitio de divulgación científica The Conversation.

Compartir

Entradas recientes

Seguí en vivo un nuevo programa de Te aviso con Tiempo

Con la conducción de Sebastián Feijoo y Gimena Fuertes, de 11 a 13 por la…

44 mins hace

Dirigentes peronistas impulsan “una renovación dirigencial” del PJ para ganarle a Milei

Con Hernán Brienza y Gustavo Córdoba como opositores, dirigentes del conurbano y el gobernador Quintela…

1 hora hace

Todos los dedos marcados: las billeteras que se quedaron con los fondos de #LIBRA tienen etiquetas Milei, Milei CATA y VladMilei

Un especialista analizó la blockchain de la memecoin, su “registro contable” inmodificable que mediante esa…

1 hora hace

Calor y a mano el paraguas: pronóstico del clima para el finde

Buenas condiciones y temperaturas en ascenso, al punto de que se mantiene el alerta por calor,…

2 horas hace

Taiana: «El Gobierno insiste en hacer todo lo contrario al interés nacional»

El ex ministro de Defensa participó de un foro internacional en Tierra del Fuego. Los…

15 horas hace

ATE realizará un paro de 24 horas en la Ciudad de Buenos Aires el próximo 27 de febrero

Es en respuesta a la brutal represión que sufrieron el jueves ante la cartera que…

15 horas hace

El Comité Nacional para la Prevención de la Tortura expresó el rechazo a las reformas penales regresivas del Gobierno

Desde organismo advirtieron que, si se aprueban los proyectos que debate el Senado, aumentará el…

15 horas hace

Nuevo exabrupto y datos erróneos: el discurso de Milei en el BID

El presidente argentino se exaltó porque le sonó el celular, durante su exposición en Washington.

16 horas hace

Tras el rechazo a la comisión investigadora, el radical Rombolá dijo que está “harto de sentir vergüenza de la UCR”

El joven dirigente radical, Agustín Rombolá, dijo que pedirá la expulsión de los senadores que…

17 horas hace

La Legislatura porteña suspendió las PASO y las elecciones serán el 18 de mayo

El jefe de Gobierno porteño celebró la decisión de la Cámara, a través de redes…

18 horas hace

Dolor por el suicidio de un ex combatiente: “Cuando se toman decisiones que afectan a la salud, estas son las consecuencias”

El caso causó alarma “ya que en los últimos años no se registraban suicidios” entre…

18 horas hace

El desafío de vender productos agroecológicos ante la caída del consumo y el aumento de los costos

Alimentos sanos que venden puerta a puerta y por internet. Para resolver la logística crearon…

19 horas hace