WhatsApp contrata mil personas para revisar mensajes de los usuarios. Ya no es seguro compartir nudes o datos confidenciales en esta plataforma

A pesar de que existen opciones menos invasivas con los usuarios, Mark Zuckerberg ha tratado por años de eliminar las preocupaciones sobre la privacidad en WhatsApp, llegando incluso a afirmar que la plataforma está completamente cifrada durante su comparecencia ante el Senado de E.U.

Esto parece ser solo un dicho de la compañía, ya que en la práctica hay elementos para desmentir que WhatsApp sea una plataforma completamente segura. Un reporte de ProPublica detalla diversas prácticas de la plataforma, incluyendo el uso de moderadores, la entrega de metadatos a las autoridades y el uso compartido de su información con otras compañías parte del ecosistema de Facebook. Para empeorar las cosas, se ha confirmado que WhatsApp puede leer algunos mensajes cuando los usuarios realizan reportes por abuso.

El reporte señala que al menos 1,000 moderadores trabajan para Facebook a través de su contratista Accenture, revisando el contenido reportado por los usuarios y sido marcado por su sistema de aprendizaje automático. Estos moderadores se encargan de monitorear el envío de spam, noticias falsas, mensajes de odio y de terrorismo, extorsión, abuso infantil y servicios de índole sexual.

Según el contenido evaluado, los moderadores pueden bloquear la cuenta analizada, poner al usuario en una lista de observación o bien descartar el reporte. Tan solo en 2020, WhatsApp presentó al menos 400 mil informes a agencias de protección infantil.

Si bien esta es una práctica común en plataformas de redes sociales, servicios email y sitios web para adultos, el reporte de ProPublica asegura que los moderadores de WhatsApp reciben miles de reportes innecesarios debido a que el sistema de inteligencia artificial en la plataforma ignora elementos como el contexto; por ejemplo, puede catalogar la foto de una mujer cargando a su bebé como una imagen de abuso infantil. Lo peor viene después, ya que una vez recibido un reporte, los moderadores pueden acceder a los últimos cinco mensajes en la conversación.

WhatsApp señala esta medida de forma muy poco clara en sus Términos de Servicio, incluso omitiendo el hecho de que los moderadores tendrán acceso directo a estos mensajes y que el hecho de recibir un reporte permite a la compañía recolectar una gran cantidad de metadatos de la cuenta reportada, lo que podría extenderse a las cuentas de Facebook e Instagram del usuario.

Esta parece una clara violación al supuesto cifrado de extremo a extremo incluido en la plataforma, aunque Facebook ya ha encontrado cómo cubrir su espalda contra estos señalamientos. En un reciente comunicado, el gigante de las redes sociales afirmó que sus moderadores pueden leer estos mensajes debido a que se consideran una versión de mensajería directa entre el servicio y el usuario que reporta, alegando que los usuarios presentan estos reportes de forma consciente y sabiendo que la compañía podrá leer algunos mensajes.

Si bien WhatsApp es, en términos generales, una plataforma segura, es necesario considerar las letras pequeñas en sus Términos de Servicio, ya que en determinadas circunstancias nuestra información confidencial podría verse expuesta a un empleado desconocido. Tal vez deba pensarlo dos veces la próxima vez que quiera enviar una imagen privada a través de este servicio.

Para conocer más sobre riesgos de seguridad informática, malware, vulnerabilidades y tecnologías de la información, no dude en ingresar al sitio web del Instituto Internacional de Seguridad Cibernética (IICS).