29 may. 2018

Amazon Echo grabó conversaciones privadas para enviarlas a contactos aleatorios

Hace poco se supo que que Amazon está vendiendo tecnología de reconocimiento facial a la policía y ahora KIRO-7, afiliada a Seattle CBS, informa que el dispositivo Echo ha estado grabando secretamente audio de conversaciones privadas, enviando después la información a destinatarios aleatorios.

Eso es al menos lo que le ha pasado a una familia de Portland (Oregón, Estados Unidos), cuyas conversaciones en casa han sido grabadas y enviadas a una persona aleatoria que estaba en la lista de contactos. El informe dice que la familia fue alertada por un colega de Seattle que recibió uno de los ficheros de audio. Después de confirmar que aquello era una conversación privada y no un mensaje de voz creado a conciencia, la familia grabada decidió apagar todos sus dispositivos Echo.

Tras darse a conocer los hechos, Amazon no ha tardado en salir al paso para decir que se toma muy en serio la privacidad de sus usuarios, sumando a eso que lo ocurrido es algo "extremadamente raro". En declaraciones a la CNBC, la compañía culpó a Alexa de haber malinterpretado la conversación de fondo como una secuencia de órdenes de voz, las cuales terminaron entendiéndose como una petición de envío de un mensaje de voz a un contacto:
Echo se activa mediante una palabra en la conversación de fondo que suena algo parecido a Alexa. Entonces, la conversación posterior fue escuchada como una solicitud de "enviar mensaje". A partir de ese punto, Alexa dijo en voz alta "¿A quién?" En ese momento la conversación de fondo se interpretó como un nombre en a lista de contactos de los contactos. Alexa luego preguntó en voz alta la confirmación del nombre de contacto y luego interpretó la conversación de fondo como "correcta". Por poco probable que sea esta cadena de eventos, estamos evaluando opciones para hacer que este caso sea aún menos probable.
Lo explicado por Amazon no es tan inverosímil como podría parecer. Al tener dispositivos que se activan por voz, estos pueden acabar activados sin querer, solo diciendo las palabras clave en una conversación que no tendría que implicar al dispositivo. También cabe la posibilidad que, en una conversación, los sonidos distorsionados acaben siendo interpretados como órdenes de voz. Sin embargo, también se han detectado otros comportamientos poco éticos que han derivado en situaciones similares a la cubierta en esta noticia.

Fuente: CNBC

0 comentarios:

Publicar un comentario

Gracias por dejar un comentario en Segu-Info
Si vas a dejar una consulta, procura tener habilitado tu perfil en Blogger o deja una forma de contacto.

Gracias por comentar!