Compensación Por El Signo Del Zodiaco
Sustiabilidad C Celebridades

Encuentre La Compatibilidad Por Signo Del Zodiaco

Pregúntele al especialista en ética: ¿Es correcto que Facebook suprima las noticias conservadoras?

Ética Y Confianza

Foto de Dave Pape a través de Flickr.

Gizmodo encendió una tormenta de fuego en las redes sociales hoy cuando reportado que los curadores de la sección de “tendencias” de Facebook regularmente descartan las noticias de tendencia derechista.

La historia, atribuida a fuentes anónimas, fue notable en parte debido al estatus de Facebook como un gigante de los medios que dirige una manguera de tráfico contra las organizaciones de noticias todos los días. Pero también hizo olas porque Facebook se ha esforzado por presentarse como un intermediario no partidista de noticias, una empresa que ofrece historias sin sesgos. En una respuesta a la historia de Gizmodo, Facebook dijo que estaba tomando las acusaciones de parcialidad 'muy en serio' y reafirmó su compromiso de proporcionar puntos de vista 'en todo el espectro político'.

En poco más de una década, Facebook ha pasado de ser un inicio de dormitorio a uno de los más largos distribuidores de noticias e información en todo el mundo. Entonces, ¿cómo debemos reaccionar cuando se revela que uno de los intermediarios más importantes del periodismo está compuesto por seres humanos con prejuicios humanos? A continuación se muestra una sesión de preguntas y respuestas con Kelly McBride, vicepresidenta de The Poynter Institute y especialista en ética de los medios, sobre lo que significa el informe de hoy para la industria de las noticias.

Si la afirmación de Gizmodo es precisa y los curadores de noticias de Facebook evitaban deliberadamente las noticias conservadoras, ¿esto representa un problema? Si es así, ¿por qué?

Este es un problema porque demuestra la capacidad de manipular el mercado de ideas entre bastidores. Eso no es nada nuevo, pero socava a los defensores de las redes sociales que dicen que Facebook es un foro de distribución de noticias más democrático.

Sabemos desde hace mucho tiempo que los algoritmos tienen sesgos programados en su proceso de selección. Pero esta afirmación de que los humanos estaban anulando el proceso de selección socava toda la idea de una lista de noticias y feeds algorítmicos. Me sugiere que Facebook no tenía plena fe en su base de usuarios. Esto es especialmente cierto cuando considera la afirmación de la fuente anónima de que se le indicó al equipo que buscara una fuente más neutral para la información que estaba de moda según los informes iniciales de un sitio conservador.

Sospecho que hay más información sobre esta práctica, descrita por fuentes anónimas, que nos ayudará a comprender lo que Facebook estaba tratando de lograr. Porque no tiene mucho sentido comercial que Facebook manipule en secreto los temas de moda en función del punto de vista político.

¿Eso no alienaría a una gran parte de sus usuarios? Tiene que haber más detalles que nos ayuden a entender esto. Tal vez, como especuló una fuente, ¿estaban refinando el algoritmo?

Las organizaciones de noticias obviamente tener sesgos sobre lo que eligen presentar. ¿La preferencia de Facebook aquí es realmente tan diferente de la de un periódico, una estación de televisión o una startup digital?

Esto es un poco más difícil de discernir para la audiencia, por lo que es menos transparente y, por lo tanto, diferente. Es más fácil detectar un sesgo humano cuando sabes buscar uno. Hasta ahora, pensábamos que el equipo de temas de tendencias solo escribía títulos y descripciones, sin influir en nuestra comprensión de las tendencias.

Esta historia revela que las recomendaciones de Facebook no están totalmente impulsadas por algoritmos, en parte están hechas por humanos, con preferencias humanas. ¿Existen medidas que Facebook pueda tomar para reducir la apariencia de sesgo en sus selecciones?

Si desea que la audiencia confíe en usted, la transparencia siempre es la respuesta, ya sea que esté hablando de sesgo humano o sesgo de máquina. Eso es más fácil decirlo que hacerlo, en ambos casos. Es difícil para los humanos describir con precisión sus sesgos. Y los algoritmos necesitan un poco de opacidad si van a ser resistentes a la manipulación.

Si Facebook pudiera decirnos más sobre lo que el algoritmo privilegia y lo que descarta, sería útil. Si Facebook también pudiera decirnos qué hacen y qué no hacen los humanos, tendríamos más información de la que tenemos ahora y más razones para confiar en lo que vemos.

Facebook es un gran determinante de las noticias que vemos en línea. ¿Tiene la responsabilidad de ser transparente sobre cómo nos está sirviendo las historias?

Como principal impulsor de la audiencia de los sitios de noticias, Facebook se ha convertido en la mayor fuerza en el mercado de las ideas. Con esa influencia viene una responsabilidad significativa. Hay muchas maneras en que Facebook podría cumplir con esa responsabilidad. En el pasado, Facebook ha afirmado que reconoce sus obligaciones democráticas. Pero siempre se puede hacer más.

¿Hay otros pasos que Facebook podría tomar?

Aquí hay una idea loca: ¿Qué pasaría si Facebook (y otras compañías que tienen una clara capacidad para influir en el mercado de las ideas) tuvieran un editor público, como lo tiene The New York Times? Esa persona podría investigar y escribir sobre la empresa desde el punto de vista del público, respondiendo preguntas y explicando los valores que impulsan ciertas decisiones.

El editor gerente de Poynter, Benjamin Mullin, contribuyó a este informe.