Herramienta para identificar tu estado de animo desata indignación: Spotify

Publicidad - LB3 -

La plataforma para escuchar música patentó una herramienta para obtener y analizar la voz de sus usuarios y recomendarles contenido según su «estado de ánimo» 

Sputink, Rusia. – ¿Cuántas veces las personas eligen la música que quieren escuchar según si están tristes, contentas, con el corazón roto o entusiasmadas? Ahora bien, ¿qué pasaría si de pronto una aplicación se encarga de tomar esa decisión luego de escuchar la voz del usuario, analizarla, clasificarla y mostrar una canción acorde, incluso sin que la persona se dé cuenta de lo que ha sucedido?.

Lejos de una herramienta propia de un futuro distópico, se trata de una posibilidad del presente que ya despierta temor real en organizaciones de derechos humanos y digitales e incluso un grupo de artistas que consideran que se trata de una tecnología «peligrosa» que constituye «una violación a la privacidad y otros derechos humanos».

El temor se hizo realidad el 12 de enero de 2021, cuando Spotify obtuvo la patente de una tecnología con «métodos, sistemas y productos de computadora para procesar señales de audio». Según consta en la solicitud de patente, la tecnología permite analizar la señal de voz y el sonido de fondo para crear metadatos que indican preferencias del usuario, a partir de las cuales se generará contenido.

En su solicitud, Spotify explica que los metadatos conseguidos a través de esta herramienta permitirían obtener información valiosa para conocer el perfil del usuario como su edad, género o su «acento». De acuerdo a la compañía, resulta ineficiente que esos datos deban ser completados manualmente por el usuario.

La novedad es que la señal de audio capaz de ser detectada también servirá para que la aplicación determine «el estado de ánimo de la persona que habla» que, según se adelanta, podrían ser clasificadas en categorías como «feliz», «enojado», «asustado», «triste» o «neutral».

Poder captar el sonido ambiente también es crucial para determinar si el usuario está solo o acompañado o la circunstancia en que se encuentra. Por ejemplo, puede determinar si el usuario se encuentra en un bus o tren, en un café o en clase, así como dictaminar si se encuentra solo, en un pequeño grupo de amigos o en una fiesta.

La alarma no tardó en llegar. El 2 de abril, la organización Access Now envió una carta al CEO de Spotify, el sueco Daniel Ek, pidiendo que la compañía «abandone inmediatamente esa tecnología de vigilancia».

- Publicidad - HP1
La empresa respondió el 15 de abril: «Spotify nunca implementó la tecnología descrita en la patente en ninguno de nuestros productos y no tenemos planes de hacerlo». Según la firma, la patente es el resultado del desarrollo de investigaciones, que no siempre se traducen en nuevas funcionalidades.
La respuesta no tranquilizó de todo a Access Now, que el 4 de mayo volvió a la carga con una carta firmada por una coalición de 180 músicos, la mayoría de ellos de la escena alternativa estadounidense pero con caras conocidas internacionalmente con Tom Morello, guitarrista de Rage Again The Machine.

La lista no incluye muchos músicos latinoamericanos —quizás lo más cercano es la banda punk Generación Suicida, asentada en Los Ángeles pero integrada por mexicanos, nicaragüenses y guatemaltecos— pero sí algunas organizaciones sociales dedicadas a los derechos digitales de América Latina como Fundación InternetBolivia.org, Venezuela Inteligente, Creative Commons Uruguay, la mexicana Red en Defensa de los Derechos Digitales o el Instituto Panameño de Derecho y Nuevas Tecnologías, entre otras.
La larga lista de indignados firmó una nueva carta, enviada el 4 de mayo, en la que, si bien los firmantes reconocen el compromiso de Spotify de no utilizar la tecnología, reclama que la empresa «se comprometa públicamente a no usar, licenciar, vender ni monetizar la tecnología de recomendación».

«Incluso si Spotify no la usa, su empresa podría beneficiarse de la herramienta de vigilancia si otra entidad la implementa. Cualquier uso de esta tecnología es inaceptable», remarca la misiva dirigida nuevamente a Daniel Ek.
La carta, no solo señala que la herramienta constituye una violación de la privacidad, sino que menciona algunos otros riesgos como la «manipulación de emociones» que puede significar para los usuarios. «Monitorear el estado emocional y hacer recomendaciones basadas en esto, pone a la entidad que implementa la tecnología en una peligrosa posición de poder en relación con la persona usuaria», denuncia.

Por si fuera poco, también abre las puertas para la discriminación al querer determinar el género de una persona según su voz. Según los firmantes, «es imposible inferir género sin discriminar a personas trans, no binarias y otras que no encajan en estereotipos de género».

Lo mismo sucede, señala la carta, con el acento, dado que «es imposible inferir el gusto musical de alguien basándose en el acento, sin asumir que existe una forma ‘normal’ de hablar o caer en estereotipos racistas».
LOGO ADN Negro
Redacción ADN / Especiales

¿Quieres compartir información o enviar boletines de prensa?
Envíanos un correo electrónico.

¿Tienes dudas? ¿Necesitas verificar alguna nota?
No dude en enviarnos un correo, con gusto la verificamos por usted.

Síguenos en nuestras redes sociales.

InHouse