Encuentre La Compatibilidad Por Signo Del Zodiaco
El vandalismo de Wikipedia podría frustrar el engaño en Google, YouTube y Facebook
Comprobación De Hechos

Por un breve momento, el Partido Republicano de California apoyó el nazismo. Al menos, eso es lo que dijo Google.
Eso se debe a que alguien destrozó la página de Wikipedia del partido el 31 de mayo para enumerar el 'nazismo' junto con ideologías como 'conservadurismo', 'liberalismo de mercado' y 'conservadurismo fiscal'. El error fue eliminado de los resultados de búsqueda, con Google aclarando a Vice News que el motor de búsqueda no había logrado detectar el vandalismo en la entrada de Wikipedia.
Si busca 'Republicanos de California' en Google, Google enumera el 'nazismo' como una de las ideologías. pic.twitter.com/JblamxkyF7
—Eric Wilson (@ericwilson) 31 de mayo de 2018
Google tiene dibujado durante mucho tiempo la enciclopedia en línea para agregar información básica a los resultados de búsqueda. De acuerdo a el registro de edición para la página del Partido Republicano de California, alguien agregó 'nazismo' a la sección de ideología del partido alrededor de las 7:40 UTC del 31 de mayo. La edición se eliminó en un minuto, pero parece que el algoritmo de Google raspó la página justo a tiempo para la falsificación.
“A veces, las personas destrozan las fuentes de información pública, como Wikipedia, lo que puede afectar la información que aparece en la búsqueda”, dijo un portavoz de Google a Poynter en un correo electrónico. 'Contamos con sistemas que detectan el vandalismo antes de que afecte los resultados de búsqueda, pero ocasionalmente se filtran errores, y eso es lo que sucedió aquí'.
La Fundación Wikimedia, una organización sin fines de lucro que opera Wikipedia, también emitió un comunicado en Twitter.
Un resultado del panel de conocimiento de Google reveló vandalismo de un @Wikipedia artículo de hoy. Aquí hay más información sobre lo que sucedió y cómo se aborda el vandalismo en Wikipedia. pic.twitter.com/fcoaK2DsXq
-Wikimedia (@Wikimedia) 1 de junio de 2018
Según Google, más del 99,9 por ciento de las ediciones de Wikipedia que aparecen en los Paneles de conocimiento, que muestran información básica sobre las palabras clave que se pueden buscar en la parte superior de los resultados, no son vandalismo. El usuario autor de la edición original de la página del Partido Republicano de California no utilizó un perfil de usuario , haciéndolos difíciles de rastrear.
Eso es una táctica común entre las personas que destrozan las páginas de Wikipedia, una práctica que la organización sin fines de lucro ha documentado extensamente . Pero dado el volumen de ediciones que se realizan en Wikipedia, alrededor de 10 por segundo , con 600 páginas nuevas por día, y el hecho de que Facebook y YouTube ahora se están aprovechando de ellas para brindar más contexto a las publicaciones, el potencial y el efecto del abuso son altos.
“Por supuesto, es una forma bastante débil de combatir las noticias falsas porque Wikipedia no es una fuente confiable de información, como incluso reconoce Wikipedia”, dijo. Magnus Faraón Hansen , investigador postdoctoral de la Universidad de Copenhague, en un mensaje a Poynter. “Wikipedia es muy vulnerable a los bulos y contiene todo tipo de desinformación, por lo que no es una forma muy seria de combatir el problema de las noticias fabricadas”.
Hansen ha estado editando páginas de Wikipedia durante unos 10 años y dijo que el vandalismo es común en la plataforma. El número de editores ha disminuido en los últimos años, mientras que los partidarios en línea han apuntó cada vez más a la plataforma — un problema que llegó a un punto crítico durante la controversia de Gamergate en 2014. Es esencialmente un juego de números.
Eso está muy lejos de donde estaba wikipedia en 2005 , cuando un estudio encontró que era tan preciso como Britannica. Y hace que sea más difícil para los editores voluntarios combatir el vandalismo a gran escala en Wikipedia, lo que no es un buen augurio para usarlo para combatir la desinformación en otras plataformas.
“Ciertamente, hay mucha información incorrecta en Wikipedia, y mucha de ella permanecerá”, dijo Hansen. “A menudo, alguien escribe un artículo y pueden pasar años antes de que alguien venga y lo edite. La gente no verifica los hechos a menos que parezca que algo está realmente fuera de lugar”.
Una artículo inventado de Wikipedia vivió en el sitio durante una década antes de ser eliminado en 2015.
Al mismo tiempo, la plataforma ha demostrado ser resistente al tipo de engaños que regularmente se vuelven virales en Facebook y Gorjeo . Estimaciones de Wikimedia que alrededor del 2,5 por ciento de las ediciones diarias son vandalismo, y Samantha Lien, gerente de comunicaciones de Wikimedia, señaló un algoritmo que marca automáticamente las ediciones cuestionables como un éxito clave para sus esfuerzos de integridad.
“Los artículos tienden a proporcionar una representación equilibrada de los hechos, y el sitio ha demostrado ser resistente a las noticias falsas y la información errónea hasta este punto”, le dijo a Poynter en un correo electrónico. “También hemos trabajado con editores voluntarios en los últimos años para construir y mejorar las herramientas de moderación para identificar y abordar rápidamente el vandalismo en Wikipedia”.
Más allá de las propias limitaciones de Wikipedia, los propios sistemas de las plataformas tecnológicas suelen ser objeto de errores y controversias, especialmente los Paneles de conocimiento.
También el 31 de mayo, una búsqueda de un senador republicano que apoya a Donald Trump en Carolina del Norte. apareció una imagen de ella con 'fanático' escrito en la parte inferior. En enero, The Daily Caller descubrió que Google estaba agregando incorrectamente verificaciones de hechos a su contenido y no al de otros medios. Eso llevó a la compañía de tecnología a suspender la función hasta que resolviera los errores.
Google le dijo a Poynter que no cambia manualmente los resultados de búsqueda para mostrar preferencia por un partido sobre otro. Pero sus algoritmos son regularmente manipulados por engaños , anuncios falsos y trolls que buscan alterar los resultados de búsqueda. Y esos problemas podrían extenderse a otras plataformas con enlaces a Wikipedia.
“Cuando más plataformas de medios usan contenido de Wikipedia sin críticas, eso aumenta las apuestas, tanto para aquellos que engañan o engañan como para aquellos que difunden el conocimiento”, dijo Hansen. “Creo que, particularmente con los enlaces a Wikipedia desde videos de YouTube sobre teorías de conspiración, eso podría tener el efecto de atraer a la gente equivocada”.
En marzo, YouTube anunció que vincularía directamente a las páginas de Wikipedia en las descripciones de los videos para proporcionar más contexto y desacreditar las teorías de conspiración virales, que a menudo se vuelven virales después de noticias de última hora. Esas 'pistas de información', que se introdujeron en la plataforma sin el conocimiento de Wikipedia — incluirá una breve línea sobre la fuente y un enlace a su página de Wikipedia.
Esa función aún no se implementó, pero YouTube presentó una similar en febrero que brinda más contexto a las organizaciones de noticias que reciben dinero del gobierno de los EE. UU.

(Captura de pantalla de YouTube)
Dada la mayor visibilidad de las páginas de Wikipedia, es concebible que los vándalos puedan acudir en masa a la plataforma para controlar varias plataformas con una sola edición.
“El 'hackeo' de Wikipedia siempre ha sido un problema, pero era un problema que realmente solo afectaba a los lectores de Wikipedia. Ahora es aún más peligroso, ya que las plataformas se están extrayendo cada vez más automáticamente de Wikipedia”, dijo Claire Wardle, directora ejecutiva de First Draft, en un correo electrónico a Poynter. “Para los agentes de desinformación que quieren la máxima amplificación, cualquier técnica que asegure que las plataformas o salas de redacción repetirán y, por lo tanto, legitimarán una falsedad, proporciona un 'retorno de la inversión' desproporcionado”.
A pesar de servir como fuente para más plataformas, Wikipedia no ha visto un aumento en el vandalismo, dijo Lien. Pero al ver cómo las adiciones tomaron por sorpresa a la organización, no está claro cómo afectarán exactamente a la integridad de las páginas de Wikipedia.
“La tendencia de las empresas de tecnología a usar Wikipedia para abordar problemas de desinformación en sus propias plataformas es un territorio nuevo para nosotros, y no sabemos cuáles serán las implicaciones totales”, dijo. “A corto plazo, estamos monitoreando de cerca cómo esto afecta a Wikipedia y a nuestra comunidad global de voluntarios. No hemos visto nada que indique un problema de vandalismo a mayor escala hasta la fecha”.
Pero incluso si hubiera un aumento en el vandalismo de Wikipedia con la intención de alterar los resultados en las plataformas, Lien dijo que la organización no tendría forma de saberlo.
“No tenemos datos disponibles que indiquen tendencias de vandalismo con la intención explícita de manipular otras plataformas”, dijo.
Entonces, ¿cuál es la probabilidad de que llegue más información errónea a otras plataformas? Joseph Reagle, profesor asociado de comunicaciones en la Universidad Northeastern y experto en Wikipedia, le dijo a Poynter que si bien no hay forma de saberlo sin los sistemas de monitoreo adecuados, la estructura que se ha establecido podría hacer que la información errónea sea más visible, incluso cuando no se creó para jugar. plataformas como Google y Facebook.
“Sí, esto es probable, y creo que será aún más probable a medida que estas empresas con fines de lucro sigan subiéndose al carro”, dijo. “En el caso de Google, no creo que la intención de la edición fuera contaminar a los usuarios intermedios de Wikipedia, pero ese fue el efecto. El hecho de que Wikipedia sea utilizada por estos agregadores posteriores también hará que Wikipedia sea un objetivo más, lo cual es un punto de preocupación”.
Aún así, aunque se está reduciendo, Wikipedia todavía tiene una comunidad comprometida de editores que tienen años de experiencia manejo de artículos sobre noticias de última hora. Nathan Matias, investigador asociado postdoctoral en la Universidad de Princeton, le dijo a Poynter en un correo electrónico que no es probable que la información errónea se escape con frecuencia debido a esa comunidad.
Pero en los márgenes del sitio, esa posibilidad aumenta sustancialmente.
“En los casos de noticias de última hora, donde los activistas de todo tipo han desarrollado formas de influir en los algoritmos de la plataforma más rápido que la velocidad del periodismo, espero que Wikipedia sea más resistente a la influencia”, dijo. “Los riesgos para Wikipedia y las plataformas serán mayores al margen del conocimiento y la atención, ya que es más difícil detectar un pequeño flujo de personas que acceden a material extremista de bajo perfil”.
A pesar de los desafíos, algunos expertos ven las plataformas tecnológicas que se vinculan a las páginas de Wikipedia como un paso adelante para contrarrestar la información errónea en línea.
Eni Mustafaraj, profesora asistente de informática en Wellesley College, le dijo a Poynter en un correo electrónico que la incorporación de Wikipedia a las grandes plataformas tecnológicas es un movimiento positivo. Pero viene con salvedades.
“Necesitan hacer esto de manera constante, y no solo para combatir la desinformación, los engaños o las teorías de conspiración”, dijo. “Para combatir la desinformación, no deberíamos poner a Facebook y Google a cargo, porque fueron ellos quienes exacerbaron el problema en primer lugar”.
Al mismo tiempo, sacar información de Wikipedia de la plataforma puede confundir a los lectores. Hansen dijo que ver enlaces al sitio desde plataformas de redes sociales, incluso si están bien etiquetados, no provocará el mismo tipo de escepticismo que es intrínseco en los usuarios de Wikipedia.
“El lector no sabe que esto es de Wikipedia. Eso introduce una capa en la que no se puede estar seguro de la fuente de la información”, dijo. “La gente es escéptica cuando está en Wikipedia; puedes ver cuando no hay una fuente… cuando estás en una plataforma diferente, no estás alerta a ese tipo de cosas”.
Luego está la cuestión del ancho de banda. A medida que el número de editores continúa disminuyendo, Wikipedia podría considerar la contratación de empleados a tiempo completo cuyo trabajo sea monitorear el vandalismo y asegurarse de que no se propague a otras plataformas. Hansen dijo que cree que la organización sin fines de lucro debería crear una unidad interna de verificación de hechos o solicitar editores expertos y académicos para opinar sobre algunas de las páginas más matizadas.
“Creo que esa es la única forma de combatir la desinformación en Wikipedia”, dijo.
Como mínimo, Lien sugirió que las plataformas tecnológicas que usan Wikipedia para contrarrestar la desinformación retribuyen a la organización sin fines de lucro de alguna manera, un punto que argumentó la directora ejecutiva de Wikimedia, Katherine Maher, en un artículo reciente para Wired . (Facebook y Youtube no están incluidos entre los principales benefactores de Wikimedia).
“Alentamos a las empresas que usan el contenido de Wikipedia a retribuir con el mismo espíritu de sostenibilidad”, dijo. “Al hacerlo, se unirían a los millones de personas que colaboran para mantener a Wikipedia fuerte y próspera”.
Y Matías asintió.
“Si las empresas esperan depender de cantidades masivas de trabajo no remunerado y, a menudo, psicológicamente oneroso de los wikipedistas y la Fundación Wikimedia para abordar algunos de sus problemas más difíciles, necesitan encontrar formas de apoyar ese trabajo mientras protegen la independencia intelectual de Wikipedia”, dijo.