No hay productos en el carrito.

Manipulación política en Facebook: una nota de BuzzFeed

Tabla de contenidos

El lunes 14 de septiembre de 2002, trascendió que una científica de datos despedida de Facebook filtró información sensible, que da cuenta que la organización estaba al tanto de la forma en que estaban siendo utilizadas sus plataformas para ejecutar actos de manipulación política en diversos países del mundo, pero decidió ignorarlo.

Esta es la traducción de un extenso artículo publicado por BuzzFeed News, cuya versión original en inglés puedes encontrar aquí.


 

“Encontré múltiples intentos flagrantes de gobiernos nacionales extranjeros de abusar de nuestra plataforma a gran escala para engañar a su propia ciudadanía y causó noticias internacionales en múltiples ocasiones. Personalmente, tomé decisiones que afectaron a los presidentes nacionales sin supervisión y tomé medidas para hacer cumplir la ley contra tantos políticos prominentes a nivel mundial que he perdido la cuenta “.

 

“Tengo sangre en mis manos”: una denunciante dice que Facebook ignoró la manipulación política global

Un memorando interno de 6600 palabras de una científica de datos de Facebook despedida detalla cómo la red social sabía que los líderes de países de todo el mundo estaban usando su sitio para manipular a los votantes y no actuaron.

Facebook ignoró o tardó en actuar ante la evidencia de que las cuentas falsas en su plataforma han estado socavando las elecciones y los asuntos políticos en todo el mundo, según un memorando explosivo enviado por una empleada de Facebook recientemente despedida y obtenido por BuzzFeed News.

El memorando de 6600 palabras, escrito por la ex científica de datos de Facebook Sophie Zhang, está lleno de ejemplos concretos de jefes de gobierno y partidos políticos en Azerbaiyán y Honduras que utilizan cuentas falsas o se tergiversan para influir en la opinión pública. En países como India, Ucrania, España, Brasil, Bolivia y Ecuador, encontró evidencia de campañas coordinadas de diferentes tamaños para impulsar u obstaculizar los resultados o candidatos políticos, aunque no siempre concluyó quién estaba detrás de ellos.

“En los tres años que pasé en Facebook, encontré múltiples intentos descarados de gobiernos nacionales extranjeros de abusar de nuestra plataforma a gran escala para engañar a su propia ciudadanía, y causó noticias internacionales en múltiples ocasiones”, escribió Zhang, quien declinó hablar con BuzzFeed News. Su perfil de LinkedIn decía que “trabajó como científica de datos para el equipo de integridad del sitio de Facebook relacionado con engagement falso”.

“Yo personalmente tomé decisiones que afectaron a los presidentes nacionales sin supervisión, y tomé medidas para hacer cumplir la ley contra tantos políticos prominentes a nivel mundial que he perdido la cuenta”, escribió.

El memo es un relato condenatorio de los fracasos de Facebook. Es la historia de Facebook renunciando a la responsabilidad por actividades malignas en su plataforma que podrían afectar el destino político de naciones fuera de Estados Unidos o Europa Occidental. También es la historia de un empleado subalterno que ejerce extraordinarios poderes de moderación que afectó a millones de personas sin ningún apoyo institucional real, y el tormento personal que siguió.

“Sé que ya tengo las manos manchadas de sangre”, escribió Zhang.

 

Estas son algunas de las mayores revelaciones del memorando de Zhang:

  • Los líderes de Facebook tardaron nueve meses en actuar en una campaña coordinada “que utilizó miles de activos no auténticos para impulsar al presidente Juan Orlando Hernández de Honduras a una escala masiva para engañar al pueblo hondureño”. Dos semanas después de que Facebook tomara medidas contra los perpetradores en julio, regresaron, lo que llevó a un juego de “golpear un topo” entre Zhang y los agentes detrás de las cuentas falsas, que aún están activas.
  • En Azerbaiyán, Zhang descubrió que el partido político gobernante “utilizó miles de activos no auténticos … para hostigar a la oposición en masa”. Facebook comenzó a investigar el problema un año después de que Zhang lo informara. La investigación continúa.
    Zhang y sus colegas eliminaron “10,5 millones de reacciones falsas y fans de políticos de alto perfil en Brasil y Estados Unidos en las elecciones de 2018”.
  • En febrero de 2019, un investigador de la OTAN informó a Facebook que “había obtenido actividad no auténtica rusa sobre una figura política estadounidense de alto perfil que no detectamos”. Zhang eliminó la actividad, “apagando el fuego inmediato”, escribió.
  • En Ucrania, Zhang “encontró una actividad escrita no auténtica” apoyando tanto a la ex primera ministra Yulia Tymoshenko, una política pro Unión Europea y ex candidata presidencial, como a Volodymyr Groysman, ex primer ministro y aliado del ex presidente Petro Poroshenko. “Volodymyr Zelensky y su facción fue el único grupo importante que no se vio afectado”, dijo Zhang sobre el actual presidente de Ucrania.
  • Zhang descubrió actividad no auténtica, un término de Facebook para la participación de cuentas de bot y cuentas manuales coordinadas, en Bolivia y Ecuador, pero eligió “no priorizarla” debido a su carga de trabajo. La cantidad de poder que tenía como empleada de nivel medio para tomar decisiones sobre los resultados políticos de un país afectó su salud.
  • Después de darse cuenta de la manipulación coordinada en la página de Facebook del Ministerio de Salud español durante la pandemia de COVID-19, Zhang ayudó a encontrar y eliminar 672.000 cuentas falsas “actuando sobre objetivos similares a nivel mundial”, incluso en los EE. UU.
  • En India, trabajó para eliminar “una red políticamente sofisticada de más de mil actores que trabajan para influir” en las elecciones locales que se celebraron en Delhi en febrero. Facebook nunca reveló públicamente esta red ni que la había eliminado.

“Hemos construido equipos especializados, trabajando con los principales expertos, para evitar que los malos actores abusen de nuestros sistemas, lo que resultó en la eliminación de más de 100 redes para un comportamiento no auténtico coordinado”, dijo la portavoz de Facebook Liz Bourgeois en un comunicado. “Es un trabajo muy complicado que estos equipos realizan como su cometido de tiempo completo. Nuestra prioridad es trabajar contra el comportamiento no auténtico coordinado, pero también estamos abordando los problemas del spam y la participación falsa. Investigamos cada problema cuidadosamente, incluidos los que la Sra. Zhang plantea, antes de que tomemos medidas o salgamos y hagamos enunciaciones públicamente como empresa”.

BuzzFeed News no publica el memorando completo de Zhang porque contiene información personal. Esta historia incluye extractos completos, cuando es posible, para proporcionar el contexto apropiado.

En su publicación, Zhang dijo que no quería que se hiciera público por temor a interrumpir los esfuerzos de Facebook para prevenir problemas en torno a las próximas elecciones presidenciales de Estados Unidos de 2020, y por preocupaciones sobre su propia seguridad. BuzzFeed News está publicando partes de su memorando que claramente son de interés público.

“Considero que me han puesto en un lugar imposible, atrapada entre mi lealtad a la empresa y mi lealtad al mundo en general”, dijo. “Lo último que quiero hacer es distraer la atención de nuestros esfuerzos para las próximas elecciones estadounidenses, pero sé que es probable que esta publicación lo haga internamente”.

Zhang dijo que rechazó un paquete de indemnización de 64 000 dólares de la empresa para evitar firmar un acuerdo de no menosprecio. Hacerlo le permitió hablar internamente y usó esa libertad para contar con el poder que tenía para controlar el discurso político.

“Hubo tantos comportamientos de violación en todo el mundo que se dejó a mi evaluación personal qué casos investigar más a fondo, presentar tareas y escalar para priorizar después”, escribió.

Ese poder contrasta con lo que ella dijo que parecía ser una falta de deseo de los líderes superiores para proteger los procesos democráticos en los países más pequeños. Facebook, dijo Zhang, dio prioridad a regiones como EE. UU. y Europa Occidental, y con frecuencia solo actuó cuando presionó repetidamente el tema públicamente en comentarios en Workplace, el tablero de mensajes interno de la compañía solo para empleados.

“Sin ningún tipo de supervisión, me quedé en una situación en la que se me confiaba una inmensa influencia en mi tiempo libre”, escribió. “Un gerente de Respuesta Estratégica reflexionó para mí que la mayor parte del mundo fuera de Occidente era efectivamente el Salvaje Oeste y yo era el dictador a tiempo parcial; él quiso decir esto como un cumplido, pero ilustró las inmensas presiones sobre mí”.

Un exingeniero de Facebook que la conocía le dijo a BuzzFeed News que Zhang era hábil para descubrir redes de cuentas falsas en la plataforma.

“La mayor parte del mundo fuera de Occidente era efectivamente el Salvaje Oeste y yo era el dictador a tiempo parcial”.

“Ella es la única persona en todo este campo en Facebook en quien confié para ser seria en este trabajo”, dijo el ingeniero, que había visto una copia de la publicación de Zhang y pidió no ser identificado porque ya no trabaja en la empresa.

“Mucho de lo que aprendí de esa publicación fue impactante incluso para mí como alguien que a menudo se ha sentido decepcionado por la forma en que la empresa trata a sus mejores empleados”, dijeron.

El memorando de Zhang decía que la falta de apoyo institucional y lo mucho que había en juego la dejaron sin poder dormir. A menudo se sentía responsable cuando los disturbios civiles se apoderaban de lugares que no priorizaba para la investigación y la acción.

“He tomado innumerables decisiones en este sentido, desde Irak hasta Indonesia, desde Italia hasta El Salvador”, escribió. “Individualmente, el impacto probablemente fue pequeño en cada caso, pero el mundo es un lugar inmenso”.

Sin embargo, no creía que las fallas que observó durante sus dos años y medio en la empresa fueran el resultado de malas intenciones de los empleados o el liderazgo de Facebook. Fue la falta de recursos, escribió Zhang, y la tendencia de la empresa a centrarse en la actividad global lo que planteaba riesgos para las relaciones públicas, en contraposición al daño electoral o cívico.

“Facebook proyecta una imagen de fuerza y ​​competencia al mundo exterior que puede prestarse a tales teorías, pero la realidad es que muchas de nuestras acciones son accidentes casuales y descuidados”, escribió.

 

“Simplemente no nos importaba lo suficiente como para detenerlos”

Zhang escribió que tenía solo seis meses en el trabajo cuando descubrió un comportamiento no auténtico coordinado (término interno de Facebook para el uso de múltiples cuentas falsas para impulsar el compromiso o difundir contenido) beneficiando al presidente hondureño Juan Orlando Hernández.

La conexión con el líder hondureño se hizo, dijo Zhang, porque un administrador de la página de Facebook del presidente había estado “ejecutando felizmente cientos de estos activos falsos sin ningún tipo de ofuscación en una muestra de extrema descaro”. La científica de datos dijo que informó de la operación, que involucró miles de cuentas falsas, a los equipos de revisión de políticas e inteligencia de amenazas de Facebook, los cuales tardaron meses en actuar.

“Los equipos de políticas locales confirmaron que el equipo de marketing del presidente JOH había admitido abiertamente haber organizado la actividad en su nombre”, escribió. “Sin embargo, a pesar de la naturaleza descaradamente violadora de esta actividad, me tomó casi un año eliminar su operación”.

Ese derribo fue anunciado por Facebook en julio de 2019, pero resultó inútil. Pronto, la operación volvió a estar en funcionamiento, un hecho que Facebook nunca ha revelado.

“Habían regresado dos semanas después de nuestra eliminación y volvían a tener un volumen similar de usuarios”, escribió Zhang, y agregó que hizo un barrido final de las cuentas falsas en su último día en Facebook. “Un año después de nuestro desmontaje, la actividad todavía está viva”.

En Azerbaiyán, encontró una gran red de cuentas no auténticas utilizados para atacar a los opositores del presidente Ilham Aliyev de Azerbaiyán y su gobernante Partido Nuevo Azerbaiyán, que utiliza el acrónimo YAP. Facebook aún no ha revelado la campaña de influencia, según Zhang.

La operación detallada en el memo recuerda a las de la Agencia de Investigación de Internet de Rusia, una granja privada de trolls que intentó influir en las elecciones estadounidenses de 2016, porque involucró a “empleados dedicados que trabajaban semanas laborales de 9 a 6 de lunes a viernes para crear millones de comentarios” dirigidos a miembros de la oposición e informes de los medios de comunicación considerados negativos para Aliyev.

“Quizás pensaron que eran inteligentes; la verdad era que simplemente no nos importaba lo suficiente como para detenerlos “.

“Múltiples cuentas oficiales de las divisiones a nivel de distrito del partido político gobernante YAP controlaban directamente muchos de estos activos falsos sin ningún tipo de ofuscación en otra muestra de arrogancia”, escribió. “Quizás pensaron que eran inteligentes; la verdad era que simplemente no nos importaba lo suficiente como para detenerlos “.

Katy Pearce, profesora asociada de la Universidad de Washington que estudia las redes sociales y la tecnología de la comunicación en Azerbaiyán, dijo a BuzzFeed News que las cuentas falsas de Facebook se han utilizado durante años para socavar a la oposición y a los medios independientes en el país.

“Una de las grandes herramientas de los regímenes autoritarios es humillar a la oposición en la mente del público para que no sea vista como una alternativa creíble o legítima”, dijo a BuzzFeed News. “Hay un efecto escalofriante. ¿Por qué querría a publicar algo si sé que voy a tratar con miles o cientos de estos comentarios, que me van a atacar? ”

Pearce dijo que el comentario de Zhang en el memorando de que a Facebook “no le importaba lo suficiente como para detener” las cuentas falsas y el trolling se alinea con su experiencia. “Tienen peces más grandes para freír”, dijo.

Una persona que administraba cuentas de redes sociales para organizaciones de noticias en Azerbaiyán le dijo a BuzzFeed News que sus páginas estaban inundadas de comentarios de Facebook no auténticos.

“Solíamos eliminarlos y prohibirlos porque no queríamos que las personas que venían a nuestra página se desanimaran y no reaccionaran ni comentaran”, dijo la persona, que pidió no ser identificada porque no estaba autorizada a hablar en nombre de su empleador. . “Pero como [los trolls] son ​​empleados, es fácil para ellos abrir nuevas cuentas”.

Dijeron que Facebook a veces ha empeorado las cosas al eliminar las cuentas o páginas de activistas de derechos humanos y otras personas después de que los trolls los denuncian. “Intentamos decirle a Facebook que esta es una persona real que hace un trabajo importante”, pero la página tardó semanas en restaurarse.

Zhang escribió que una investigación de Facebook sobre cuentas falsas y trolling en Azerbaiyán ya está en marcha, más de un año después de que informara por primera vez sobre el problema. El día de su partida, dijo que era su “mayor asunto pendiente” detener el comportamiento falso en el país.

“A muchos otros no les importaría que yo le dedicara esta atención a Estados Unidos, pero se sorprenden al verme luchando por estos pequeños países”, escribió. “En pocas palabras, mis metodologías fueron sistemáticas a nivel mundial, y luché por Honduras y Azerbaiyán porque ahí fue donde vi el daño más continuo”.

 

“Tengo sangre en mis manos”

En otros ejemplos, Zhang reveló nueva información sobre una red de cuentas falsas a gran escala utilizada para amplificar y manipular información sobre COVID-19, así como una operación de influencia política que utilizó cuentas falsas para influir en las elecciones de 2018 en Estados Unidos y Brasil. Algunos de estos detalles no fueron revelados previamente por Facebook, lo que sugiere que los anuncios de eliminación regulares de la compañía siguen siendo selectivos e incompletos.

Zhang dijo que Facebook eliminó 672.000 “cuentas falsas de baja calidad” después de informes de prensa en abril de que algunas de las cuentas habían estado interactuando con contenido de COVID-19 en la página del Ministerio de Salud español. Dijo que las cuentas de esa red también interactúan con el contenido de las páginas de EE. UU. Facebook no reveló cuántas cuentas eliminó, ni que esas cuentas interactuaban con contenido en otros países, incluido EE. UU.

Zhang también compartió nuevos detalles sobre la magnitud de la actividad no auténtica durante las elecciones de mitad de período de 2018 en los EE. UU. y de los políticos brasileños ese mismo año. “Terminamos eliminando 10.5 millones de reacciones falsas y seguidores de políticos de alto perfil en Brasil y Estados Unidos en las elecciones de 2018: los principales políticos de todas las tendencias en Brasil y varios políticos de nivel inferior en Estados Unidos”, escribió.

Una sesión informativa de septiembre de 2018 sobre el trabajo electoral de Facebook en los EE. UU. y Brasil reveló que había actuado contra una red en Brasil que usaba “cuentas falsas para sembrar división y compartir desinformación”, así como un conjunto de grupos, páginas y cuentas que estaban “amplificando falsamente el compromiso para obtener ganancias financieras”. No mencionó completamente los hallazgos de Zhang.

La escala de esta actividad (672 000 cuentas falsas en una red, 10.5 millones de interacciones falsas y fans en otras) indica que las cuentas falsas activas son un problema global y se utilizan para manipular las elecciones y el debate público en todo el mundo.

Como una de las pocas personas que buscaba e identificaba cuentas falsas que impactaban la actividad cívica fuera de las regiones “prioritarias”, Zhang luchó con el poder que le habían entregado.

“Nos en el daño y en regiones prioritarias como Estados Unidos y Europa Occidental”, escribió Zhang, y agregó que “se volvió imposible leer las noticias y monitorear los eventos mundiales sin sentir el peso de mi propia responsabilidad”.

En Bolivia, Zhang dijo que encontró “actividad falsa de apoyo al candidato presidencial de la oposición en 2019” y decidió no darle prioridad. Meses después, la política boliviana entró en crisis, lo que provocó la renuncia del presidente Evo Morales y “protestas masivas que provocaron decenas de muertes”.

Lo mismo sucedió en Ecuador, según Zhang, quien “encontró una actividad no auténtica apoyando al gobierno de turno… y tomó la decisión de no priorizarlo”. Luego, la ex empleada de Facebook se preguntó cómo su decisión tuvo efectos posteriores en la forma en que el gobierno de Ecuador manejó la pandemia de COVID-19, que ha devastado el país, y si eso habría sido diferente si ella hubiera actuado.

“He tomado innumerables decisiones en este sentido, desde Irak hasta Indonesia, desde Italia hasta El Salvador. Individualmente, el impacto probablemente fue pequeño en cada caso, pero el mundo es un lugar inmenso. Aunque tomé la mejor decisión que pude basándome en el conocimiento disponible en ese momento, finalmente fui yo quien tomó la decisión de no presionar más o priorizar más en cada caso, y sé que tengo sangre en las manos”.

Zhang también descubrió problemas en India, el mercado más grande de Facebook, en el período previo a las elecciones locales de Delhi en febrero de 2020. “Trabajé a través de la enfermedad para acabar con una red políticamente sofisticada de más de mil actores que trabajan para influir en las elecciones”, escribió.

El mes pasado, la operación india de Facebook fue objeto de escrutinio después de que informes en el Wall Street Journal revelaran que un alto ejecutivo de políticas del país había impedido que los empleados locales aplicaran las políticas de discurso de odio de la compañía a los políticos del partido gobernante que publicaron discursos de odio contra los musulmanes.

 

“Accidentes fortuitos”

En su “tiempo libre” en 2019, Zhang asumió tareas generalmente reservadas para los gerentes de producto e investigadores, buscando países como Ucrania, Turquía, India, Indonesia, Filipinas, Australia, Reino Unido, Taiwán, “y muchos, muchos más. ”

Zhang dijo que encontró y eliminó “actividad con guiones no auténticos” en Ucrania, que apoyaba a Yulia Tymoshenko, una figura política complicada que ha estado involucrada en controvertidos acuerdos de gas con Rusia, pero que adoptó un rumbo más pro-occidental en su carrera posterior, así como para el ex primer ministro Volodymyr Groysman, aliado del expresidente Petro Poroshenko. “Volodymyr Zelensky y su facción fue el único grupo importante que no se vio afectado”, escribió.

En otra parte de su memorando, Zhang dijo que quería rechazar la idea de que Facebook estaba dirigido por personas malintencionadas con la esperanza de lograr un resultado en particular. Ese no fue el caso, escribió, y atribuyó las acciones a “accidentes casuales y descuidados”.

“El año pasado, cuando bloqueamos a los usuarios para que no nombraran al denunciante de Ucrania, nos olvidamos de cubrir los hashtags hasta que yo intervine”, escribió.

Pero también comentó sobre el hábito de Facebook de priorizar las relaciones públicas sobre los problemas del mundo real. “Es un secreto a voces dentro del espacio de la integridad cívica que las decisiones a corto plazo de Facebook están motivadas en gran medida por las relaciones públicas y el potencial de atención negativa”, escribió, y señaló que le dijeron directamente en una cumbre de 2020 que cualquier cosa publicada en el New York Times o el Washington Post obtendría una prioridad elevada.

“Es por eso que he visto que las prioridades de escaladas se disparan cuando otros comienzan a amenazar con ir a la prensa, y por qué un líder de mi organización me informó que mi trabajo cívico no tuvo impacto bajo el razonamiento de que si los problemas eran significativos, hubiera atraído la atención, se hubiera convertido en un incendio de prensa y convencido a la empresa de que dedicara más atención al espacio “.

Zhang mencionó un ejemplo en febrero de 2019, cuando un investigador de comunicaciones estratégicas de la OTAN se acercó a Facebook y alertó a la empresa de que había “obtenido” actividad no auténtica rusa “sobre una figura política estadounidense de alto perfil que no detectamos”. Ese investigador dijo que planeaban informar al Congreso al día siguiente.

“Investigué rápidamente el caso, determiné lo que estaba pasando y eliminé la actividad, apagando el fuego inmediato”, escribió Zhang. “Quizás motivado por la experiencia, el mismo investigador intentó el mismo experimento dentro de uno o dos meses, esperando medio año después antes de enviar el informe a la prensa y finalmente provocar el incendio de relaciones públicas”.

 

“Los recursos humanos son limitados”

Más allá de los ejemplos específicos de todo el mundo, Zhang proporcionó información sobre el funcionamiento interno de Facebook. Criticó el enfoque de su equipo en cuestiones relacionadas con “el 99% de la actividad que es esencialmente spam”.

“En general, el enfoque de mi organización, y la mayor parte de Facebook, estaba en problemas a gran escala, un abordaje que nos obsesionó con el spam”, dijo. “Se descartó el aspecto cívico por su pequeño volumen, se ignoró su impacto desproporcionado”.

Zhang describió los procesos políticos dentro de Facebook. Dijo que la mejor manera de llamar la atención sobre su trabajo no era pasar por los canales de información adecuados, sino publicar sobre los problemas en el tablero de mensajes internos de los empleados de Facebook para generar presión. “En la oficina, me di cuenta de que mis puntos de vista no eran respetados a menos que actuara como un idiota arrogante”, dijo Zhang.

“En la oficina, me di cuenta de que mis puntos de vista no eran respetados a menos que actuara como un idiota arrogante”.

Cuando le pidió a la compañía que hiciera más en términos de encontrar y detener actividades maliciosas relacionadas con las elecciones y la actividad política, dijo que le dijeron que “los recursos humanos son limitados”. Y cuando se le ordenó que dejara de centrarse en el trabajo cívico, “me dijeron que Facebook ya no necesitaría más mis servicios si me negaba”.

Zhang fue despedida este mes y publicó su memorando en su último día, incluso después de ofrecer permanecer durante las elecciones como voluntaria no remunerada. En su despedida, animó a sus compañeros a permanecer en Facebook y a arreglar la empresa desde dentro.

“Pero no necesitas, y no debes, hacerlo solo”, escribió. “Encuentre a otros que compartan tus convicciones y valores para trabajar juntos en ello. Facebook es un proyecto demasiado grande para que lo arregle una sola persona “.

 

También podría interesarte leer Cuántos usuarios tiene Facebook en el mundo y otras estadísticas de uso

ILB Metrics - reputación online

Relacionados Artículos