Durante asalto a Congreso, Facebook tenía su propia revuelta

eprochaba a la compañía por tener un enfoque poco sistemático ante el rápido crecimiento de las páginas Stop the Steal, las fuentes de desinformación relacionadas y los comentarios violentos e i...

eprochaba a la compañía por tener un enfoque poco sistemático ante el rápido crecimiento de las páginas Stop the Steal, las fuentes de desinformación relacionadas y los comentarios violentos e incitadores.

Facebook dice que la situación es más matizada y que calibra cuidadosamente sus controles para reaccionar rápidamente a los picos de contenido de odio y violencia, como hizo el 6 de enero. La compañía afirma que no es responsable de las acciones de los alborotadores y que tener controles más estrictos antes de ese día no habría ayudado.

Las decisiones de Facebook de introducir o eliminar gradualmente determinadas medidas de seguridad tomaron en cuenta señales de su propia plataforma así como información de las fuerzas del orden, dijo la portavoz Dani Lever. Cuando esas señales cambiaron, también lo hicieron las medidas, apuntó.

Lever señaló que algunas de las medidas se mantuvieron hasta bien entrado el mes de febrero y otras siguen activas en la actualidad.

Algunos empleados estaban descontentos con la gestión de contenidos problemáticos por parte de Facebook incluso antes de los disturbios. Una persona que abandonó la empresa en 2020 dejó una larga nota en la que denunciaba que nuevas y prometedoras herramientas, respaldadas por sólidas investigaciones, estaban siendo limitadas por Facebook por miedo a las respuestas del público y de las partes interesadas en la política" (traducción: preocupación por las reacciones negativas de los aliados de Trump y de los inversores).

Del mismo modo (aunque todavía más preocupante), he visto que se han retirado salvaguardas ya desarrolladas y en funcionamiento por las mismas razones, escribió el empleado, cuyo nombre fue tachado.

Investigaciones realizadas por Facebook bastante antes de la campaña de 2020 dejaron pocas dudas de que su algoritmo podía representar un serio peligro de propagar desinformación y posiblemente radicalizar a usuarios.

Un estudio de 2019, titulado: El recorrido de Carol a QAnon. Un estudio de un usuario de prueba sobre riesgos de desinformación y polarización hallados a través de sistemas de recomendación, describía los resultados de un experimento efectuado con una cuenta de prueba abierta para reflejar los puntos de vista de una mujer de Carolina del Norte de 41 años, un prototipo de conservador fuerte, pero no extremista. Esta cuenta, bajo el nombre falso de Carol Smith, indicaba tener preferencias por fuentes noticiosas comunes, como Fox News, seguía a grupos humorísticos que se burlaban de los liberales, se decía cristiana y era simpatizante de Melania Trump.

En un solo día, las recomendaciones de páginas para esta cuenta generadas por Facebook habían evolucionado a un estado bastante preocupante, polarizante, halló el estudio. Para el segundo día, el algoritmo recomendaba más contenido extremista, incluyendo un grupo vinculado a QAnon, al que la usuaria falsa no se unió porque no estaba intrínsecamente atraída por las teorías de la conspiración.

Una semana después, la sección de noticias de la usuaria de prueba contenía una andanada de contenido extremista, conspirativo y explícito, incluyendo publicaciones que repetían la mentira de que Barack Obama no nació en Estados Unidos y vinculaban a Bill y Hillary Clinton con el asesinato de un exsenador del estado de Arkansas. Gran parte de ese contenido había sido publicado por grupos de dudosa reputación operados desde el extranjero o por administradores con antecedentes de violar las normas de Facebook sobre las actividades de bots.

Estos resultados llevaron al investigador, cuyo nombre fue ocultado por la informante, a recomendar medidas de seguridad que iban desde la retirada de contenido con referencias conspirativas conocidas y la desactivación de las insignias de contribuidor principal para comentaristas que difundiesen desinformación, a rebajar el número de seguidores requerido para que la red social verifique la identidad del administrador de una página.

Entre los demás empleados de Facebook que tuvieron acceso a la investigación, la respuesta fue casi unánime de apoyo.

¡Oye! Este es un estudio exhaustivo y bien perfilado (y perturbador)", escribió un usuario, cuyo nombre fue tachado también por la informante. ¿Sabe de algún cambio concreto que haya salido de esto?.

Facebook dijo que el estudio era uno de los muchos ejemplos de su compromiso con el estudio y la mejora continua de su plataforma.

Otro estudio entregado a los investigadores del Congreso, titulado Comprensión de los peligros comunidades temáticas perjudiciales, analizaba cómo personas con las mismas ideas que abrazan un tema o una identidad extremos pueden formar cámaras de eco para la desinformación que normaliza actitudes dañinas, impulsa la radicalización y puede llegar a proporcionar una justificación para la violencia.

Ejemplos de este tipo de comunidades incluyen a QAnon y grupos de odio que promueven teorías sobre una guerra racial.

El riesgo de daños o violencia fuera de internet es más probable cuando individuos con ideas afines se unen y se apoyan mutuamente", concluyó el estudio.

Los documentos de acusación presentados por la fiscalía federal contra los presuntos autores del asalto al Capitolio contienen ejemplos de la unión de personas con ideas similares.

Según la Fiscalía, una supuesta líder del grupo miliciano Oath Keepers utilizó Facebook para discutir la formación de una alianza y la coordinación de planes con otro grupo extremista, los Proud Boys, antes de los disturbios en el Capitolio.

Hemos decidido trabajar juntos y acabar con esta m(exhabruto)", escribió en Facebook Kelly Meggs, descrita por las autoridades como la líder de la división de los Oath Keepers en Florida, según los registros judiciales.