Siri y Alexa se encuentran en el ojo del huracán por activarse y escuchar discusiones familiares o situaciones de pareja que atentan contra la privacidad.
Como parte de su trabajo, contratistas de Apple con frecuencia escuchan los registros de voz de los usuarios para mejorar la calidad de Siri. Sin embargo, el monitorear a los asistentes virtuales implica invadir la privacidad, como por ejemplo, enterarse de información médica confidencial o incluso cuando las personas mantienen encuentros íntimos.
Los desarrolladores tienen la tarea de averiguar cuándo los asistentes virtuales se activan de manera deliberada o accidental. De igual manera, buscan mejorar los resultados de búsqueda y determinar si son apropiados.
Privacidad al acecho
De acuerdo con un reporte de The Guardian, Apple utiliza los datos para ayudar a Siri y mejorar su dicción, así como para entender y reconocer mejor lo que los usuarios dicen. No obstante, la empresa no aclara que el trabajo lo realizan humanos que escuchan las grabaciones supuestamente anónimas.
“Las peticiones de los usuarios no están asociadas con Apple ID”, de acuerdo con la compañía citada por el medio. “Las respuestas son analizadas en instalaciones seguras y todos los analistas están obligados a adherirse a los requerimientos de confidencialidad”.
Asimismo, la empresa aclara que sólo el 1% de las activaciones diarias de Siri son usadas para mejorar el producto y por lo general tienen una duración de tan sólo unos segundos.
Sin embargo, un informante que trabaja para Apple expresó, bajo anonimato, sus preocupaciones debido a la falta de transparencia. Dicha opacidad preocupa dada la frecuencia con la que Siri recopila información personal sensible.
El asistente de voz de la compañía de Cupertino puede activarse al escuchar ‘Hey, Siri’, aunque no sea con la intención de utilizarlo. Incluso el sonido de un cierre puede considerarse como un detonador.
Por su parte, el Apple Watch, al detectar que es alzado y escuchar diálogo, se activa automáticamente. Los incidentes con este dispositivo son frecuentes, y aunque la duración de los registros sea de 30 segundos, el tiempo es suficiente para saber qué está pasando.
“Han existido incontables situaciones donde se escuchan grabaciones de conversaciones privadas entre doctores y pacientes, empresarios, criminales e incluso encuentros sexuales”, comentó el informante. Los registros vienen acompañados con información que muestra ubicación, detalles de los contactos y datos de la aplicación.
De igual manera, los desarrolladores sólo están obligados a reportar problemas técnicos, pero no hay un procedimiento específico cuando se trata de contenido sensible.
Alexa también fisgonea a los usuarios
Una investigación realizada por el diario británico The Sun encontró que el asistente virtual de Amazon escucha a las parejas cuando hacen ejercicio, discuten sobre temas familiares y mantienen relaciones sexuales.
Así como ocurre con Siri, el personal de Amazon escucha grabaciones con el objetivo de monitorear a Alexa y mejorarla.
Una ex analista de la compañía que dirige Jeff Bezos declaró que “nos decían que nos enfocáramos en los comandos ordenados a Alexa, pero era imposible no escuchar lo que ocurría”.
La entrevistada declaró que “Amazon nos decía que a todos los que escuchábamos consintieron por lo que nunca sentí que espiaba. Otros colaboradores dijeron que tenían prohibido hablar de su trabajo porque firmaron acuerdos de confidencialidad”.
Ante situaciones así hay quienes presionan para mejorar la protección de la privacidad, como ocurre con la organización Privacy International.
“Necesitamos leyes más fuertes para proteger a la gente de los dispositivos que siempre están encendidos”, declara el organismo citado por The Sun. “Las personas que los tienen están en su derecho de sentirse preocupadas y con temor”.
¿Estás de acuerdo con que los asistentes virtuales puedan escuchar todo lo que ocurre a tu alrededor? ¿Te sientes cómodo con que así suceda?
Te puede interesar también:
“Miles de aplicaciones espían la privacidad de usuarios Android”