30.8 C
Santo Domingo
lunes, julio 8, 2024

Meta eliminó los equipos electorales meses antes del lanzamiento de Threads, lo que genera preocupaciones para 2024



CNN

Meta ha realizado recortes en sus equipos que abordan la desinformación y las campañas coordinadas de trolls y acoso en sus plataformas, dijeron a CNN personas con conocimiento directo de la situación, lo que genera preocupación antes de las elecciones cruciales de 2024 en los EE. UU. y en todo el mundo.

Varios miembros del equipo que contrarrestaron la información errónea y la desinformación en las elecciones intermedias de EE. UU. de 2022 fueron despedidos el otoño pasado y esta primavera, dijo una persona familiarizada con el asunto. Los miembros del personal son parte de un equipo global que trabaja en los esfuerzos de Meta para contrarrestar las campañas de desinformación que buscan socavar la confianza o sembrar confusión en torno a las elecciones.

La noticia llega cuando Meta, la empresa matriz de Facebook e Instagram, está celebrando el éxito sin precedentes de su nueva plataforma Threads, superando los 100 millones de usuarios solo cinco días después del lanzamiento y abriendo una nueva vía potencial para los malos actores.

Un portavoz de Meta no especificó, cuando se le preguntó, cuántos miembros del personal habían sido recortados de sus equipos que trabajan en las elecciones. En una declaración a CNN el lunes por la noche, el portavoz dijo: “Proteger las elecciones estadounidenses de 2024 es una de nuestras principales prioridades, y nuestros esfuerzos de integridad continúan liderando la industria”.

El portavoz no respondió a las preguntas de CNN sobre qué recursos adicionales se habían desplegado para monitorear y moderar su nueva plataforma. En cambio, Meta dijo que el gigante de las redes sociales había invertido $16 mil millones en tecnología y equipos desde 2016 para proteger a sus usuarios.

Pero la decisión de despedir personal antes de 2024, cuando las elecciones no solo se llevarán a cabo en los Estados Unidos sino también en Taiwán, Ucrania, India y otros lugares, ha generado preocupación entre quienes tienen conocimiento directo del trabajo de integridad electoral de Meta.

La naturaleza dispar del trabajo de Meta en las elecciones hace que sea difícil incluso para las personas dentro de la empresa decir específicamente cuántas personas forman parte del esfuerzo. Un grupo de empleados relevantes más afectados por los despidos fueron los especialistas en «revisión de contenido» que revisan manualmente las publicaciones relacionadas con las elecciones que pueden violar los términos de servicio de Meta, dijo a CNN una persona familiarizada con los recortes.

Meta está tratando de compensar esos recortes detectando de manera más proactiva las cuentas que difunden información falsa relacionada con las elecciones, dijo la persona, que habló bajo condición de anonimato porque no estaba autorizada para hablar con la prensa.

Durante años, el gigante de las redes sociales ha invertido mucho en equipos de personal para erradicar redes sofisticadas y coordinadas de cuentas falsas. Ese “comportamiento inauténtico coordinado”, como lo llama Meta, comenzó en el período previo a las elecciones de 2016, cuando una infame operación de trolls vinculada al gobierno ruso se volvió loca en Facebook.

El equipo encargado de combatir las campañas de influencia, que incluye a exfuncionarios del gobierno y de inteligencia de EE. UU., ha sido generalmente considerado como el más sólido en la industria de las redes sociales. La empresa ha publicado informes trimestrales en los últimos años que exponen a los gobiernos y otras entidades que han sido operando campañas encubiertas empujando la desinformación en las plataformas de Meta.

Esos equipos que investigan campañas de desinformación ahora deben priorizar aún más en qué campañas y países enfocarse, dijo otra persona familiarizada con la situación, una compensación que podría resultar en que algunos esfuerzos engañosos pasen desapercibidos.

La persona enfatizó que Meta todavía tiene un equipo dedicado de profesionales que trabajan en estos temas, muchos de los cuales son ampliamente respetados en las comunidades de seguridad cibernética y de la información.

Pero si bien la inteligencia artificial y otros sistemas automatizados pueden ayudar a detectar algunos de estos esfuerzos, descubrir redes de desinformación sofisticadas sigue siendo un “proceso muy manual” que implica un intenso escrutinio por parte del personal experto, dijo a CNN otra persona con conocimiento directo de los esfuerzos de desinformación de Meta.

La persona dijo que temía que Meta estuviera retrocediendo del progreso que había logrado al aprender de los errores del pasado. “Lecciones que se aprendieron a un gran costo”, dijeron, citando la admisión de la compañía en 2018 de que sus plataformas se utilizaron para incitar a la violencia en Myanmar.

Además de su equipo interno, Meta y otras empresas de redes sociales confían en los consejos de académicos y otros investigadores que se especializan en monitorear redes de desinformación encubiertas.

Darren Linvill, profesor del Media Forensics Hub de la Universidad de Clemson, dicho ha enviado valiosos consejos a la empresa en los últimos meses, pero el tiempo de respuesta de Meta se ha reducido significativamente.

Linvill, que tiene un largo historial de éxito en la identificación de cuentas encubiertas en línea, lo que incluye ayudar a descubrir un esfuerzo de injerencia electoral rusa en África en 2020, dijo que Meta eliminó recientemente una red de cuentas en ruso que publicaban contenido a favor y en contra de Ucrania. en Facebook e Instagram.

“Estaban tratando de avivar la ira en ambos lados de los debates”, dijo.

Lanzado el jueves pasado, Threads se ha convertido en un éxito instantáneo con celebridades, políticos y periodistas que acuden en masa a la plataforma.

La nueva aplicación al estilo de Twitter está vinculada a las cuentas de Instagram existentes de los usuarios, en lugar de estar vinculada directamente a Facebook. Actualmente, Threads comparte los mismos estándares comunitarios que Instagram, pero las plataformas difieren en cuestiones relacionadas con los métodos de Meta para combatir la desinformación.

Meta también aplica etiquetas a cuentas controladas por el estado en Facebook e Instagram, como la agencia de noticias Sputnik de Rusia y CCTV de China. Sin embargo, estas etiquetas no aparecen en las cuentas controladas por el estado en Threads.

El lanzamiento de Threads, incluso cuando Meta recorta su personal centrado en la desinformación, llega en un momento turbulento y transformador para quienes tienen la tarea de escribir e implementar reglas en las plataformas de redes sociales.

Elon Musk, el multimillonario que compró Twitter el año pasado, prácticamente rompió el libro de reglas de esa plataforma y destripó al equipo que trabajaba en la implementación de políticas diseñadas para combatir los esfuerzos de desinformación.

El mes pasado, YouTube, que también ha hecho recortes de empleos, Anunciado permitiría videos que muestren la afirmación falsa de que se robaron las elecciones presidenciales de EE. UU. de 2020, una reversión de su política anterior.

Los cambios de reglas se producen cuando la Cámara de Representantes, controlada por los republicanos, investiga las interacciones entre las empresas de tecnología y el gobierno federal.

La semana pasada, un juez federal en Luisiana ordenado Algunas agencias de administración de Biden y altos funcionarios no se comunican con las empresas de redes sociales sobre cierto contenido, lo que le da una victoria a los estados republicanos en una demanda que acusa al gobierno de ir demasiado lejos en su esfuerzo por combatir la desinformación de Covid-19.

Las restricciones y el escrutinio podrían dar cobertura a las empresas de redes sociales que quieran retirar algunas de las reglas de sus plataformas sobre la integridad electoral, dijo Katie Harbath, exfuncionaria de Facebook que ayudó a liderar los esfuerzos electorales globales de la empresa hasta 2021.

«Puedo [almost] escuchar [Meta Global Affairs President] Nick Clegg diciendo que ‘vamos a ser cautelosos con lo que hacemos, porque no queremos infringir la ley’”, dijo Harbath.



Source link

Related Articles

Ultimos Articulos