Martes, 07 de Diciembre de 2021

Otras localidades

Facebook

Documentos internos filtrados de Facebook muestran su conocimiento y desidia sobre noticias falsas en la red

Varios medios estadounidenses cuentan que poseían informes sobre el peligro de la viralidad y lo dejaban en un segundo plano, favoreciendo la difusión de una mentira y ocultándola a quien trata de combatirla

Mark Zuckerberg, fundador de Facebook, representado en un montaje como parte de los que asaltaron el Capitolio, hecho por el grupo SumOfUs.

Mark Zuckerberg, fundador de Facebook, representado en un montaje como parte de los que asaltaron el Capitolio, hecho por el grupo SumOfUs. / Caroline Brehman/CQ-Roll Call, Inc (Getty Images)

Facebook sigue en el centro del debate como uno de los causantes de la polarización o sectarización del discurso público. Al ser una de las redes sociales más grandes del mundo y un vehículo constante de información, está en entredicho su política para beneficiar una circulación de noticias verdaderas o, lo que es lo mismo, para combatir las noticias falsas o fake news que tanto contaminan la actualidad informativa y confunden o engañan a los lectores.

Ahora, nuevos documentos filtrados de la compañía, que han sido difundidos por varios medios estadounidenses, muestran que estos informes internos ya alertaban del peligro de la viralidad y de que las noticias falsas estaban inundando la red social. Así, Facebook habría relegado esa política de desmontar cualquier mentira a un segundo plano, favoreciendo a la difusión de las mismas e incluso ocultándolas a quien sí trata de combatirlas. En definitiva, un ejercicio de desidia.

Investigación que demuestra la desidia de Facebook ante los bulos

Un grupo de medios estadounidenses entre los que se encuentra el New York Times, la CNN, el Wall Street Journal o el Washington Post ha publicado nuevos artículos sobre Facebook, basados en el material proporcionado por la garganta profunda Frances Haugen, el cual también llegó a la Comisión de Bolsa y Valores de EEUU. Estos documentos, no compartidos ni publicados en su totalidad, fueron publicados inicialmente por el Journal en septiembre bajo los "Facebook Files", compartidos después con el resto de medios.

Estos documentos muestran la forma de actuar del algoritmo de Facebook y que la red social era conocedora del peligro que conlleva. Por ejemplo, uno de los que más conscientes era de esto es Kang-Xing Jin, amigo de Mark Zuckerberg desde la Universidad de Harvard y uno de los primeros empleados de la compañía. "Hay un surtido creciente de investigación que muestra que los canales virales se usan más para lo malo que para lo bueno", escribe en un texto llamado "viralidad perjudicial rampante". 

Solo el Journal, el primero en interpretar y analizar la información recibida, trata en profundidad la cuestión, mientras el resto se centra más en un tema referente al asalto al Capitolio. Según el mencionado medio, docenas de documentos internos evidencian que ingenieros y científicos de datos de Facebook son capaces de detectar contenidos virales que favorecen teorías de la conspiración, bulos o discursos de odio, y que cuanto más haya de esto, más grande se hace la bola. Por tanto, los usuarios que más difunden estos contenidos son los que más peligro tienen y el algoritmo beneficia a esta difusión.

“Si quitamos un porcentaje pequeño de compartidos de la cronología de los usuarios, deciden volver menos a Facebook”, escribe el jefe de los anuncios, John Hegeman, en otro documento. Y es que en teoría cuanto más tiempo estén los usuarios en la red social más anuncios consumen y eso beneficia al negocio. Haugen alerta de que el beneficio sea prioritario frente a la democracia. 

Una solución, como propuso un ingeniero durante la campaña electoral de 2020, es eliminar el botón de compartir, o al menos poner un límite a la expansión de contenido viral. La otra, la elegida por Facebook, según informa El País, es actuar directamente contra entidades o cuentas puntuales para no perjudicar a usuarios que no son peligrosos.

La desidia de Facebook antes del asalto al Capitolio

La mayoría de medios cuentan que Facebook celebró su éxito para evitar la desinformación en las elecciones pero cayó en la desidia antes del asalto al Capitolio del 6 de enero desactivando las medidas de precaución. Según lo publicado, muchos de los trabajadores que durante los meses previos a los comicios habían formado parte del equipo de prevención contra noticias falsas y contenidos de odio, se tomaron excedencias o cambiaron de cargo tras las elecciones.

Además, Facebook dio marcha atrás con decenas de medidas que había activado para evitar el caos en la jornada electoral como la supresión de ciertos grupos, y el equipo de integridad cívica fue prácticamente desbandado por temor a las críticas que sus miembros dedicaban con cada vez mayor frecuencia a la propia empresa.

Según la información periodística, el 6 de enero, cuando se produjo el asalto al Capitolio por parte de miles de simpatizantes, algunos de ellos armados, del expresidente Donald Trump, los empleados de Facebook expresaron "rabia y lamentación" por no haber dado mayor importancia a los "signos de alerta". Ese día, las denuncias en Facebook por parte de usuarios que habían hallado noticias falsas se dispararon a 40.000 por hora, y en Instagram (propiedad de la compañía), la cuenta más denunciada por incitar a la violencia fue la del entonces todavía presidente Trump.

Facebook se encuentra desde hace semanas en el punto de mira en todo el mundo después de que Haugen declarase ante un subcomité del Senado de EE.UU que la firma antepone sus beneficios a la seguridad de los usuarios y oculta que sus plataformas son nocivas para los menores, fomentan la división social y debilitan la democracia. Por su parte, el consejero delegado y cofundador de Facebook, Mark Zuckerberg, negó que su compañía anteponga los beneficios a la seguridad y el bienestar de los usuarios, y dijo que "muchas de las acusaciones no tienen sentido" y que no reconoce "la falsa imagen de la compañía que se está pintando".

Todos los medios informan de una prueba con una usuaria ficticia, Carol Smith, una madre conservadora moderada de 41 años de Carolina del Norte. que se 'abrió' una cuenta en Facebook en 2019 con interés en “niños, crianza, cristianismo y comunidad” y siguió las cuentas oficiales de Fox News y Donald Trump. A partir de ahí, el algoritmo la fue llevando en base a recomendaciones hasta el grupo QAnon. Es decir, los investigadores de Facebook poseen herramientas para ver los peligros de manera interna y actuar.

Cargando

Escucha la radio en directo

Cadena SER
Directo

Tu contenido empezará después la publicidad

Programación

A continuación

    Último boletín

    Emisoras

    Elige una emisora

    Cadena SER

    Compartir

    Tu contenido empezará después de la publicidad

    Cadena SER

    ¿Quieres recibir notificaciones con las noticias más importantes?