Amazon prepara una actualización para su asistente virtual Alexa que ha generado diversas reacciones en el mundo: la capacidad para imitar voces de personas fallecidas.
Alexa de Amazon pronto podría replicar la voz de los miembros de la familia, incluso si ya han fallecido.
La capacidad, presentada en la conferencia Re:Mars de Amazon en Las Vegas, está en desarrollo y permitiría al asistente virtual imitar la voz de una persona específica en función de una grabación proporcionada de menos de un minuto.
Rohit Prasad, vicepresidente senior y científico principal de Alexa, dijo en el evento del miércoles que el deseo detrás de la función era generar una mayor confianza en las interacciones que los usuarios tienen con Alexa al poner más «atributos humanos de empatía y afecto».
“Estos atributos se han vuelto aún más importantes durante la pandemia en curso, cuando muchos de nosotros hemos perdido a nuestros seres queridos”, dijo Prasad. “Si bien la IA no puede eliminar el dolor de la pérdida, definitivamente puede hacer que sus recuerdos perduren”.
En un video reproducido por Amazon en el evento, un niño pequeño pregunta: «Alexa, ¿puede la abuela terminar de leerme el Mago de Oz?». Luego, Alexa reconoce la solicitud y cambia a otra voz que imita a la abuela del niño. El asistente de voz luego continúa leyendo el libro con esa misma voz.
Para crear la función, Prasad dijo que la compañía tuvo que aprender a hacer una “voz de alta calidad” con una grabación más corta, en lugar de horas de grabación en un estudio. Amazon no proporcionó más detalles sobre la función, que seguramente generará más preocupaciones sobre la privacidad y preguntas éticas sobre el consentimiento.
El impulso de Amazon se produce cuando su competidor Microsoft dijo a principios de esta semana que estaba reduciendo sus ofertas de voz sintética y estableciendo pautas más estrictas para «garantizar la participación activa del orador» cuya voz se recrea. Microsoft dijo el martes que está limitando qué clientes pueden usar el servicio, al tiempo que continúa destacando los usos aceptables, como un personaje interactivo de Bugs Bunny en las tiendas de AT&T.
“Esta tecnología tiene un potencial emocionante en la educación, la accesibilidad y el entretenimiento y, sin embargo, también es fácil imaginar cómo podría usarse para hacerse pasar por oradores de manera inapropiada y engañar a los oyentes”, dijo una publicación de blog de Natasha Crampton, quien dirige la división de ética de IA de Microsoft. .
Comments