facebook-messenger-01

Tras el escándalo de Cambridge Analytica, en el que millones de cuentas fueron entregadas a terceros sin ningún tipo de control, pensábamos que Facebook habría aprendido de este asunto para no volver a caer en la misma piedra. Parece que no ha sido así. La compañía vuelve a estar en el ojo del huracán, esta vez por su aplicación de mensajería instantánea Messenger. Según desvela Bloomberg, la empresa de Zuckerberg ha contratado a empresas externas para escuchar los audios privados de la app de cientos de personas.

Lo más inquietante del tema es que los trabajadores de estas empresas han pedido a Bloomberg no desvelar su identidad por temor a perder su puesto de trabajo, que consistía en transcribir los audios de Messenger que les pasaban (algunos de contenido sexual) sin conocer más información. Es decir, no sabían con qué objetivo los estaban escuchando ni cuál era su procedencia.

En su defensa, Facebook ha explicado que se trata de un programa para mejorar su sistema de inteligencia artificial. Los clips provienen de usuarios que eligieron la opción de la aplicación Messenger de Facebook para que se transcribieran sus chats de voz. Esto es algo que ya hacen otras empresas rivales como Apple, Amazon o Google, quienes utilizan las transcripciones de los audios para entrenar a su Inteligencia Artificial y que, de este modo, pueda entender cada vez mejor cualquier conversación.

facebook-01

Esta opción «voz a texto», que se puede activar después de enviar un clip de voz en Messenger, es una característica que se introdujo por primera vez en 2015. Ni la aplicación Messenger ni una página de soporte sobre cómo habilitar/deshabilitar la función, podrían revisar estas conversaciones. Aunque en una página de soporte se indica que la función utiliza el aprendizaje automático, el usuario no se imaginaría jamás que personas reales pudieran escuchar sus conversaciones. En la página se muestra además que la función viene desactivada en las conversaciones privadas de Messenger, que están encriptadas.

Muchos ahora podrían estar pensando, «si los datos son anónimos, ¿cuál es el problema?» El problema es que Facebook, al igual que Apple, Amazon o Google, no especificaron explícitamente que las conversaciones de los usuarios podrían llegar a ser vistas por personas de carne y hueso. Y, hay una gran diferencia entre un ordenador que escucha una conversación privada y un ser humano real.

Además, todo hace indicar que a menudo estos audios no son tan anónimos como parece. Según un informe de The Guardian publicado a finales de julio, los trabajadores de Apple que analizaban las activaciones de Siri solían encontrarse con negocios de drogas, detalles médicos y personas que tenían relaciones sexuales. Estas grabaciones estaban acompañadas de datos del usuario, con su ubicación, datos de contacto y datos de la aplicación.

A todo esto hay que añadir que cuando Facebook cambió su política de uso de datos el año pasado para hacerla más inteligible, no mencionó directamente las grabaciones de audio que se estaban utilizando. Sólo dijo que recogerían contenido, comunicaciones y otra información que proporcionara el usuario cuando utilizara sus aplicaciones. La mayoría de los que leen esto saben que los modelos de IA están entrenados y supervisados por personas reales, pero la mayoría desconoce hasta que punto se pueden usar sus datos.

Mientras que Google y Apple ya han comunicado que van a dejar de almacenar las conversaciones de Siri o Google Home en Europa, después de que así lo haya decidido el Comisionado de Protección de Datos de Hamburgo, no sabemos qué ocurrirá en el caso de Facebook. Por su parte, Amazon tampoco se ha pronunciado al respecto con Alexa. Estaremos pendientes de nuevas noticias para informaros puntualmente.

Recibe nuestras noticias

De lunes a viernes mandamos un newsletter con los titulares del día a +4.000 suscriptores

I will never give away, trade or sell your email address. You can unsubscribe at any time.