Encuentre La Compatibilidad Por Signo Del Zodiaco
Lo que muestra el video alterado de Nancy Pelosi sobre cómo los medios cubren la desinformación
Comprobación De Hechos

La presidenta de la Cámara de Representantes, Nancy Pelosi, D-Calif., hace una pausa durante un panel de discusión en el Delaware County Community College, el viernes 24 de mayo de 2019, en Media, Pensilvania (AP Photo/Matt Slocum)
Si estuvo en Twitter la semana pasada, es muy probable que haya visto a los medios desacreditar un video alterado de Nancy Pelosi y criticar la respuesta de Silicon Valley.
El jueves, una página hiperpartidista de Facebook publicó el video, que parecía mostrar a la presidenta de la Cámara de Representantes de los Estados Unidos arrastrando las palabras en un evento del Centro para el Progreso Estadounidense. El Washington Post entonces publicó una historia sobre la publicación, pero ya era demasiado tarde: el video tenía más de 2 millones de visitas a partir de esta publicación.
Eso es bastante malo. Pero entonces Rudy Giuliani, el abogado personal de Donald Trump, compartido (aunque luego lo borró). Trump también compartió una versión de la falsedad, twittear un montaje de video editado selectivamente eso hace que parezca que Pelosi está tartamudeando.
Pero es falso: el video que compartió Giuliani fue ralentizado y editado manualmente para hacer que el discurso de Pelosi sonara deformado y distorsionado. En menos cinco comprobación de hechos sitios que se asoció con Facebook para reducir el alcance de la información errónea desacreditó el engaño. (Divulgación: ser signatario deCódigo de principios de la Red Internacional de Verificación de Datos de Poynteres una condición necesaria para unirse al proyecto).
Si bien lasciva, ese tipo de información errónea es bastante común en línea.
Verificadores de hechos en todo el mundoregularmente desacreditar videosque se editan ligeramente o simplemente se sacan de contexto para presentar un reclamo falso en las redes sociales. Sucede en los Estados Unidos (no, estos videos no prueban Hillary Clinton tiene la enfermedad de Parkinson) como ocurre en cualquier otro país con una gran proporción de usuarios de Facebook.
Aparte de su viralidad, el video de Pelosi no fue diferente. Pero los periodistas estadounidenses lo trataron como si fuera una prueba de fuego para el estado actual de la información política en línea, un tratamiento que carece de los matices necesarios para comprender mejor el problema.
Durante una entrevista del viernes con Monika Bickert, vicepresidenta de política de productos y contraterrorismo de Facebook, Anderson Cooper de CNN preguntó repetidamente por qué la compañía decidió dejar el video alterado en lugar de eliminarlo. bickert citado Estándares de la comunidad pública de Facebook , que no contemplan la eliminación de contenido solo porque es falso.
Pero Cooper siguió adelante.
“Entiendo que es un gran negocio tratar de averiguar qué es cierto o no, pero estás ganando dinero al estar en el negocio de las noticias. Si no puedes hacerlo bien, ¿no deberías dejar el negocio de las noticias? preguntó.
Y Cooper no fue el único en cuestionar por qué Facebook y Twitter dejaron el video alterado de Pelosi mientras YouTube lo eliminó .
“La negativa de Facebook a publicar un video manipulado de la presidenta de la Cámara de Representantes, Nancy Pelosi, destaca cómo Internet ahora amenaza la verdad en lugar de difundirla”. escribió un columnista para EE.UU. hoy.
“Un negocio como Facebook no cree en las falsificaciones. Para él, un video es real siempre que sea contenido”, El Atlántico escribió .
Los colegas de Pelosi también fueron tras Facebook, tuiteando que la empresa puede y debe hacer más para eliminar la publicación falsa.
Cualquiera que cubra información errónea en Facebook sabe por qué dejó el video falso de Pelosi: las publicaciones falsas no van en contra de los estándares comunitarios de la compañía. Solo la información falsa que viole otra regla, como el discurso de odio, la incitación a la violencia, el terrorismo, etc., cumpliría con el estándar de eliminación.
En cambio, Facebook se basa en más de 50 organizaciones independientes de verificación de hechos en todo el mundo para encontrar, revisar y calificar la veracidad de las publicaciones cuestionables en la plataforma. Una vez que un verificador de datos considera que una publicación es falsa, Facebook opta por reducir su alcance en la sección de noticias, agrega verificaciones de datos relacionadas debajo y notifica a los usuarios que intentan compartirla.
Cómo trata Facebook la desinformación, en un gráfico
Esa política ha estado en vigor desde la creación de la asociación de verificación de datos de Facebook en diciembre de 2016. Y no es arbitrario: la empresa dijo en ese momento que no quería eliminar el contenido simplemente porque es falso, lo que lo expondría a acusaciones de censura.
“(Los verificadores de hechos) pueden disputar un artículo y enlazar a su explicación y luego proporcionar contexto en Facebook para que las personas y la comunidad puedan decidir por sí mismos si quieren confiar en un artículo o compartirlo”, Adam Mosseri, exvicepresidente de gestión de productos para News Feed, le dijo a BuzzFeed Noticias cuando se lanzó la asociación.
Es importante que los periodistas cuestionen el impacto y la lógica de este proceso: mantiene a Facebook alerta y defiende sus políticas contra la desinformación, que incluso sus socios de verificación de hechos han dicho Desearían que fueran más transparentes. Y hay un debate legítimo sobre si los estándares de la comunidad de Facebook deberían o no ser el final de todo para combatir la desinformación en la plataforma.
“Los estándares comunitarios de Facebook no son regulaciones. No son leyes”, El neoyorquino escribió el martes. “Son pautas arbitrarias y confusas desarrolladas por empleados de una empresa privada que luego están abiertas a la interpretación de personas pagadas por esa empresa y aplicadas, o no, por otros empleados de esa empresa”.
Pero ese debate necesita más matices.
Varios medios han sugerido que Facebook es una empresa de medios, con lo que muchos otros periodistas están de acuerdo. Al seleccionar qué contenido dejar y eliminar, el gigante tecnológico ya toma algunas decisiones editoriales. Si se considerara una empresa de medios, eso le daría inherentemente a Facebook más responsabilidad por la veracidad del contenido en su plataforma.
Y, como mi exjefe Alexios Mantzarlis señaló en Twitter esta semana, la empresa podría desarrollar una especie de equipo de respuesta rápida que desclasifique los engaños cuyo compromiso supere a los socios de verificación de datos de Facebook.
Pero, ¿es Facebook en realidad una empresa de medios, o simplemente una plataforma en la que se comparten los medios? ¿Es un periódico o un quiosco? ¿Es la plaza pública o el pregonero?
Esas preguntas aún deben ser respondidas definitivamente, idealmente por académicos en concierto con los reguladores ( El Correo informó que la debacle de Pelosi podría aumentar el escrutinio de las plataformas por parte de los legisladores). Cualquier solución debe involucrar a múltiples partes interesadas, incluidos usuarios, organizaciones sin fines de lucro y los objetivos de la desinformación, no solo los medios de comunicación y Silicon Valley.
4 pensamientos sobre lo que Facebook podría haber hecho en el video de Pelosi que no llegan a eliminarlo, pero que aún podrían ayudar en el futuro.
(Mi toma caliente de derribo está disponible a temperatura ambiente aquí: https://t.co/iZaPHiuhn6 )
- Alexios (@Mantzarlis) 26 de mayo de 2019
“La brigada de eliminación podría considerar desarrollar un conjunto alternativo de estándares de la comunidad de Facebook para consideración pública”, Casey Newton escribió en su boletín para The Verge el martes. “No tengo ninguna duda de que hay mejores formas de trazar los límites aquí: eliminar rápidamente la propaganda maliciosa, mientras se promueve lo que es simplemente arte. Pero alguien tiene que trazar esos límites y defenderlos”.
Antes de que llegue ese momento (si es que llega), los periodistas deben abstenerse de presuponer que Facebook tiene la responsabilidad de eliminar contenido falso en todas las circunstancias. En una época en que los dictadores de todo el mundoutilizar el término “noticias falsas” para socavar sistemáticamente a la prensa, debe haber un debate más matizado sobre si una de las empresas más grandes del mundo debería eliminar contenido que considera falso sin la participación de terceros.
De lo contrario, los periodistas corren el riesgo de alimentar inadvertidamente la máquina partidista que crea información errónea como el video manipulado de Pelosi en primer lugar.
“Es fácil imaginar la creación de una regla como ‘Eliminar ejemplos falsos de discurso de odio’, pero es mucho más difícil idear una regla que requiera eliminar el video de Pelosi pero no otras formas de burla, sátira o disidencia”, Angela Chen escribió para MIT Technology Review el martes.
Franklin Foer, redactor de The Atlantic, lo dijo mejor en PBS Newshour los lunes.
“Queremos que (Facebook) se ponga del lado de la realidad y la verdad, pero no queremos que den propinas, usando su poder para influir en los resultados políticos, porque creo que eso es demasiada responsabilidad para tener en una corporación”, dijo.