12 sept 2021

Así Facebook socava la privacidad de sus de usuarios de WhatsApp

Facebook tiene bajo contrato a más de 1.000 empleados que "continuamente leen y moderan millones de mensajes, imágenes y videos privados" enviados a través de su servicio filial de WhatsApp, según un informe publicado este martes por el portal ProPublica.

Cuando Zuckerberg dio a conocer una nueva "visión centrada en la privacidad" para Facebook en marzo de 2019, citó el servicio de mensajería global de la empresa, WhatsApp, como modelo. Reconociendo que "actualmente no tenemos una sólida reputación en la creación de servicios de protección de la privacidad, pero creo que el futuro de la comunicación cambiará cada vez más a servicios privados y cifrados en los que las personas puedan confiar en lo que se dicen entre sí. permanece seguro y sus mensajes y contenido no se quedarán para siempre. Este es el futuro que espero que ayudemos a lograr. Planeamos construir esto de la forma en que hemos desarrollado WhatsApp".

Entretanto, WhatsApp continúa promocionando sus políticas de privacidad y enfatiza que los mensajes cursados entre usuarios no pueden ser descifrados por la empresa. El director ejecutivo de Facebook, Mark Zuckerberg, aseguró durante su testimonio ante el Senado de EE.UU. en 2018: "No vemos nada del contenido en WhatsApp". Sin embargo, de acuerdo con un nuevo informe basado en documentos internos y entrevistas con moderadores, resulta que no es así.

"WhatsApp tiene más de 1.000 trabajadores contratados, que llenan pisos de edificios de oficinas en Austin, Texas, Dublín y Singapur. [...] Emiten juicios sobre cualquier cosa que aparezca en su pantalla, reclamos de todo, desde fraude o spam hasta pornografía infantil y posibles conspiraciones terroristas, generalmente en menos de un minuto", escribió ProPublica. Estos moderadores no son empleados directos de WhatsApp o Facebook, sino que son contratistas que trabajan por 16,50 dólares la hora y están obligados a guardar silencio sobre su labor, bajo acuerdos de no divulgación.

En conjunto, los trabajadores analizan millones de piezas de contenido de WhatsApp cada semana. Cada revisor maneja más de 600 tickets al día, lo que les da menos de un minuto por ticket. WhatsApp se negó a revelar cuántos trabajadores contratados se emplean para la revisión de contenido, pero una lista parcial de personal revisada por ProPublica sugiere que, solo en Accenture, hay más de 1.000. Se espera que los moderadores de WhatsApp, como sus contrapartes de Facebook e Instagram, cumplan con las métricas de rendimiento en cuanto a velocidad y precisión, que son auditadas por Accenture.

¿Qué contenidos ven los moderadores?

Según el portal, los contenidos a los que deben estar atentos esos contratistas son mensajes reportados por los usuarios o marcados por inteligencia artificial. Así, cuando un internauta presiona 'reportar', el mensaje en cuestión, así como los cuatro anteriores en el chat respectivo, se descifran y se envían a uno de esos moderadores para su revisión.

Los mensajes seleccionados por la inteligencia artificial se examinan con base en datos no cifrados recopilados por WhatsApp, como "los nombres y las imágenes de perfil de los grupos de WhatsApp de los usuarios, sus números de teléfono, fotos de perfil, mensajes de estado, nivel de batería del teléfono, idioma y zona horaria, identificación única del teléfono móvil y dirección IP, intensidad de la señal inalámbrica y sistema operativo del teléfono, así como una lista de sus dispositivos electrónicos, cualquier cuenta de Facebook e Instagram relacionada, la última vez que usaron la aplicación y cualquier historial previo de violaciones".

De otra parte, algunos de los mensajes revisados por los moderadores fueron marcados por error. WhatsApp cuenta con 2.000 millones de usuarios que hablan cientos de idiomas, y el personal a veces tiene que confiar en la herramienta de traducción de Facebook para analizar los mensajes marcados. Según un empleado, esa herramienta es "horrible" para decodificar la jerga local y el contenido político.

La negación de WhatsApp de que modera el contenido es notablemente diferente de lo que dice Facebook Inc. sobre los hermanos corporativos de WhatsApp, Instagram y Facebook. La compañía ha dicho que unos 15.000 moderadores examinan el contenido de Facebook e Instagram, ninguno de los cuales está encriptado. Publica informes trimestrales de transparencia que detallan cuántas cuentas de Facebook e Instagram han "actuado" para varias categorías de contenido abusivo. No existe tal informe para WhatsApp.

Los informes indican, además, que WhatsApp comparte ciertos datos privados con agencias de aplicación de la ley, como el Departamento de Justicia de EE.UU. A manera de ejemplo, ProPublica denuncia que datos de los usuarios de WhatsApp ayudaron a los fiscales a construir un caso contra una exempleada del Departamento del Tesoro, Natalie Edwards, que supuestamente filtró a BuzzFeed News informes bancarios confidenciales sobre transacciones sospechosas.

La implementación de un ejército de revisores de contenido es solo una de las formas en que Facebook Inc. ha comprometido la privacidad de los usuarios de WhatsApp. Juntas, las acciones de la compañía han dejado a WhatsApp, la aplicación de mensajería más grande del mundo, con dos mil millones de usuarios, mucho menos privada de lo que sus usuarios probablemente entienden o esperan. Una investigación de ProPublica, basada en datos, documentos y docenas de entrevistas con empleados y contratistas actuales y anteriores, revela cómo, desde que compró WhatsApp en 2014, Facebook ha socavado silenciosamente sus amplias garantías de seguridad de múltiples maneras.

Dos artículos recientes señalan la existencia de moderadores de WhatsApp, pero se centraron en sus condiciones de trabajo y pago en lugar de su efecto en la privacidad de los usuarios. Este artículo es el primero en revelar los detalles y el alcance de la capacidad de la empresa para analizar los mensajes y los datos de los usuarios. y examinar qué hace la empresa con esa información).

Respuesta de WhatsApp

El director de comunicaciones de WhatsApp, Carl Woog, reconoció que sus contratistas revisan los mensajes para identificar y eliminar a "los peores" abusadores, y aseveró que la compañía no considera que ese trabajo sea una moderación de contenidos. "En realidad, no solemos usar este término para WhatsApp", dijo Woog a ProPublica.

"WhatsApp es un salvavidas para millones de personas en todo el mundo. Las decisiones que tomamos, sobre cómo creamos nuestra aplicación, se centran en la privacidad de nuestros usuarios, manteniendo un alto grado de confiabilidad y previniendo el abuso", aseguraron desde la empresa.

Fuente: ProPublica

Suscríbete a nuestro Boletín

1 comentario:

  1. El que quiera privacidad mejor que use Jabber en donde no dependes de un servidor central

    ResponderBorrar

Gracias por dejar un comentario en Segu-Info.

Gracias por comentar!