Encuentre La Compatibilidad Por Signo Del Zodiaco
Facebook anuncia cambios radicales en sus políticas contra la desinformación
Comprobación De Hechos

(Shutterstock)
Facebook está comenzando el segundo trimestre del año fiscal implementando cambios en la forma en que combate la información errónea en su plataforma.
En una publicación de blog de casi 2000 palabras enviada a Poynter el miércoles, Facebook anunció una serie de cosas nuevas que está haciendo para combatir noticias, imágenes y videos falsos.
Entre los cambios:
- Facebook ahora está reduciendo el alcance de los grupos que difunden repetidamente información errónea.
- Está explorando el uso del crowdsourcing como una forma de determinar en qué medios de comunicación confían más los usuarios.
- Y la compañía está agregando nuevos indicadores a Messenger, grupos y News Feed en un esfuerzo por informar a los usuarios sobre el contenido que están viendo.
“Tenemos varias actualizaciones de productos frente a uno o dos cambios importantes”, dijo la portavoz de Facebook, Mari Melguizo, en un correo electrónico a Poynter. “Estos esfuerzos se enfocan en mantener a las personas seguras y mantener la integridad de la información que fluye a través de nuestras aplicaciones”.
Esto es lo que cada uno de los cambios más importantes tiene que ver específicamente con la desinformación, con el contexto de periodistas, académicos y tecnólogos, así como lecturas adicionales sobre cada tema. Lea la publicación del blog de Facebook en su totalidad aquí .
Degradar a los grupos que difunden información errónea
Entre los cambios más grandes que Facebook anunció el miércoles fue que comenzaría a degradar el alcance de los grupos que difunden repetidamente noticias, imágenes y videos falsos.
“Cuando las personas de un grupo comparten repetidamente contenido que ha sido calificado como falso por verificadores de datos independientes, reduciremos la distribución general de la sección de noticias de ese grupo”, escribieron Guy Rosen, vicepresidente de integridad de Facebook, y Tessa Lyons, directora de integridad de la sección de noticias. , en la publicación del blog.
Facebookse ha vuelto locoen los últimos meses por la difusión de teorías de conspiración contra las vacunas, muchas de las cuales comenzaron en grupos y luego se extendieron al resto de la plataforma. En respuesta a la presión de los medios ypresión de los políticos estadounidenses, la compañia esbozó un plan a principios de marzo para frenar el contenido antivacunas en su plataforma.
En él, Facebook anunció que los grupos y las páginas que comparten información errónea contra las vacunas se eliminarían de su algoritmo de recomendación, pero no se eliminarían por completo. La medida fue un reconocimiento tácito del poder que tienen los grupos para difundir contenido falso.
BuzzFeed News informó en marzo de 2018 que la característica, a menudo elogiada por el liderazgo de Facebook, y priorizados en la sección de noticias – se había convertido en “un crisol global de spam, noticias falsas, conspiraciones, información errónea sobre la salud, acoso, piratería, troleo, estafas y otras amenazas para los usuarios”. ¿Por qué?
“Los propagandistas y los spammers necesitan acumular una audiencia, y los grupos se lo sirven en bandeja”, dijo Renee DiResta, investigadora de seguridad, a BuzzFeed. “No es necesario ejecutar una campaña publicitaria para encontrar personas receptivas a su mensaje si simplemente puede unirse a grupos relevantes y comenzar a publicar”.
Y, si bien la empresa ha tomado varias medidas para limitar la difusión de la falsificación en News Feed, hasta el miércoles, estaba haciendo poco para combatir la desinformación específicamente en grupos.
“No hay un esfuerzo concertado para deshacerse de las noticias falsas, la información errónea, lo que sea”, le dijo a Poynter en enero un exempleado de Facebook que trabajó en grupos. “Es mucho peor porque está ahí y está oculto… es tan malo como una máquina de generación de información errónea de noticias falsas como lo fue alguna vez en News Feed”.
Leonard Lam, portavoz de los grupos de Facebook, le dijo a Poynter que las mismas políticas contra la desinformación que rigen productos como News Feed se aplican a toda la plataforma. Eso significa que los artículos, imágenes y videos falsos desacreditados por los socios de verificación de datos de Facebook aparecerán con la verificación de datos relevante debajo de ellos, incluso en grupos.
Esas señales también se usarán para determinar qué grupos son desinformadores repetidos, una de las primeras cosas que Facebook ha hecho específicamente para combatir la desinformación en los grupos.
Los grupos de Facebook hiperpartidistas son el próximo gran desafío para los verificadores de datos
Crowdsourcing confianza en las noticias
El anuncio del miércoles se produce cuando Facebook amplía su asociación con los medios de verificación de datos de todo el mundo, posiblemente el esfuerzo más visible de la compañía para combatir la información errónea en la plataforma.
Facebook lanzó el programa en diciembre de 2016 con verificadores de datos estadounidenses como (propiedad de Poynter) PolitiFact, Snopes y Factcheck.org. El objetivo: identificar, desacreditar y reducir el alcance de las noticias falsas en la plataforma. Una vez que un engaño se marca como falso, se reduce su alcance futuro en la sección de noticias y se le agrega una verificación de hechos.(Divulgación: ser signatario deCódigo de principios de la Red Internacional de Verificación de Datos de Poynteres una condición necesaria para unirse al proyecto).
Desde entonces, sese ha expandidopara permitir que los verificadores desacrediten imágenes y videos falsos. La Asociación ha crecido a 47 proyectos escritos en 23 idiomas alrededor del mundo. Y aunque proyectos como Snopes y CBS se han retirado por diferentes razones, medios como Associated Press se han ampliado recientemente su compromiso con el programa.
Una nueva característica contra la desinformación podría ayudar a reforzar ese trabajo.
Cómo trata Facebook la desinformación, en un gráfico
“Simplemente no hay suficientes verificadores de hechos profesionales en todo el mundo y, como todo buen periodismo, la verificación de hechos lleva tiempo”, escribieron Rosen y Lyons en la publicación del blog. “Una idea prometedora para reforzar su trabajo, que hemos estado explorando desde 2017, involucra a grupos de usuarios de Facebook que señalan fuentes periodísticas para corroborar o contradecir afirmaciones hechas en contenido potencialmente falso”.
El CEO Mark Zuckerberg transmitió esa idea en un video de facebook en febrero, poco más de un año después primero lo hizo flotar . El movimiento no fue popular entre los periodistas, quienes dijeron que todos los días los usuarios de Facebook no pueden dejar de lado sus prejuicios para calificar los medios de comunicación creíbles.
Pero un nuevo estudio publicado en febrero de 2018 sugiere lo contrario.
“Lo que descubrimos es que, si bien existen desacuerdos reales entre demócratas y republicanos con respecto a los principales medios de comunicación, básicamente todos, demócratas, republicanos y verificadores de hechos profesionales, están de acuerdo en que no se puede confiar en los sitios falsos e hiperpartidistas”, dijo David Rand. , profesor asociado en el Instituto de Tecnología de Massachusetts, en un comunicado de prensa .
Según la publicación del blog del miércoles, Facebook continuará explorando la idea consultando a académicos, expertos en verificación de datos, periodistas y organizaciones de la sociedad civil.
“Cualquier sistema que implementemos debe tener salvaguardas contra el juego o la manipulación, evitar la introducción de prejuicios personales y proteger las voces de las minorías”, escribieron Rosen y Lyons.
El crowdsourcing de fuentes confiables en Facebook no es tan descabellado como crees
Más contexto en Facebook
En el pasado, las empresas de tecnología han recurrido a sitios web como Wikipedia para proporcionar más contexto sobre las fuentes que publican en sus plataformas. El miércoles, Facebook anunció una serie de nuevos indicadores similares.
“Estamos invirtiendo en funciones y productos que brindan a las personas más información para ayudarlos a decidir qué leer, confiar y compartir”, escribieron Rosen y Lyons en la publicación del blog.
Facebook ha actualizado su botón de contexto, lanzado en abril del año pasado, para incluir información de El proyecto de confianza sobre las políticas de ética de los editores, la propiedad y la estructura de financiación. La empresa está comenzando a mostrar más información en su pestaña de calidad de página, que lanzado en enero para mostrar a los propietarios de páginas cuáles de sus publicaciones fueron desacreditadas por los socios de verificación de hechos de Facebook. Y, en Messenger, la compañía está agregando una insignia verificada para reducir las suplantaciones de identidad y las estafas.
Facebook también está comenzando a etiquetar los mensajes reenviados en Messenger, una táctica aparentemente tomada de la empresa hermana WhatsApp, que lanzó una función similar en julio en un intento de reducir la difusión de información errónea.
WhatsApp lanza una función que etiqueta los mensajes reenviados
Si bien son una manera fácil de brindar a los usuarios más información sobre los editores en las redes sociales y, por lo tanto, evitar que compartan información errónea, los indicadores como el botón de contexto de Facebook también tienen el potencial de ser manipulados.
Durante el verano, alguien destrozó la página de Wikipedia del Partido Republicano de California para decir que apoyaba el nazismo. Si bien la mayoría de los casos de vandalismo en Wikipedia se detectan con bastante rapidez, este incidente llegó a Google, que salió a la superficie la edición falsa en lo alto de los resultados de búsqueda.
Eso es raro. Pero dado el volumen de ediciones que se realizan en Wikipedia todos los días, puede ser difícil para las plataformas tecnológicas detectar todos los casos de vandalismo.
“Por supuesto, es una forma bastante débil de combatir las noticias falsas porque Wikipedia no es una fuente confiable de información, como incluso reconoce Wikipedia”, Magnus Pharao Hansen, investigador postdoctoral en la Universidad de Copenhague, le dijo a Poynter en junio . “Wikipedia es muy vulnerable a los bulos y contiene todo tipo de desinformación, por lo que no es una forma muy seria de combatir el problema de las noticias fabricadas”.
El vandalismo de Wikipedia podría frustrar el engaño en Google, YouTube y Facebook
Al mismo tiempo, características como la pestaña de calidad de la página de Facebook han tenido un efecto más demostrativo en la difusión de información errónea.
Después de Factcheck.org desacreditado un meme falso sobre la representante estadounidense Alexandria Ocasio-Cortez (D-N.Y.) en marzo, la página que publicó la foto lo borró . Y no era la primera vez; otras páginas repetidas que desinforman en Facebook han eliminado contenido desacreditado por los socios de verificación de hechos de la compañía, y algunos han renombrado sus operaciones en total.
interesante investigación de @dpfunke en @factchecknet . Más evidencia de que sí, (agregue un cliché sobre las mentiras que viajan más rápido que la verdad), pero parece que el esquema de verificación de hechos de terceros en @Facebook SI tiene un efecto y reduce la efectividad de algunas operaciones de 'noticias falsas' de EE. UU. https://t.co/yc2qGP7eH7
—Peter Cunliffe-Jones (@PCunliffeJones) 13 de marzo de 2019
Corrección: Una versión anterior de este artículo escribió mal el apellido de Leonard Lam.