Amazon Alexa presenta una nueva tecnología que puede imitar voces, incluidas las de los muertos

Marcador de posición mientras se cargan las acciones del artículo

Apoyado encima de un cabecera mesa durante la cumbre tecnológica de Amazon de esta semana, se le pidió a un Echo Dot que completara una tarea: “Alexa, ¿puede la abuela terminar de leerme ‘The Mago de Oz’?”

La voz típicamente alegre de Alexa retumbó desde el altavoz inteligente con temática infantil con un diseño de panda: “¡Está bien!” Luego, cuando el dispositivo comenzó a narrar una escena del León Cobarde pidiendo coraje, el tono robótico de Alexa fue reemplazado por un narrador con un sonido más humano.

“En lugar de la voz de Alexa leyendo el libro, es la voz de la abuela del niño”, explicó con entusiasmo Rohit Prasad, vicepresidente senior y científico jefe de inteligencia artificial de Alexa, durante un discurso de apertura en Las Vegas. (El fundador de Amazon, Jeff Bezos, es dueño de The Washington Post).

La demostración fue el primer vistazo a la función más nueva de Alexa, que, aunque todavía está en desarrollo, permitiría al asistente de voz replicar las voces de las personas a partir de clips de audio cortos. El objetivo, dijo Prasad, es generar una mayor confianza con los usuarios al infundir inteligencia artificial con los “atributos humanos de empatía y afecto”.

La nueva característica podría “hacer [loved ones’] los recuerdos perduran”, dijo Prasad. Pero si bien la perspectiva de escuchar la voz de un pariente muerto puede tocar el corazón, también plantea una gran cantidad de preocupaciones éticas y de seguridad, dijeron los expertos.

“No siento que nuestro mundo esté listo para una tecnología de clonación de voz fácil de usar”, dijo a The Washington Post Rachel Tobac, directora ejecutiva de SocialProof Security, con sede en San Francisco. Tal tecnología, agregó, podría usarse para manipular al público a través de clips de audio o video falsos.

“Si un ciberdelincuente puede replicar de manera fácil y creíble la voz de otra persona con una pequeña muestra de voz, puede usar esa muestra de voz para hacerse pasar por otras personas”, agregó Tobac, un experto en seguridad cibernética. “Ese mal actor puede engañar a otros para que crean que son la persona a la que están suplantando, lo que puede provocar fraude, pérdida de datos, apropiación de cuentas y más”.

Luego existe el riesgo de difuminar las líneas entre lo que es humano y lo que es mecánico, dijo Tama Leaver, profesora de estudios de Internet en la Universidad de Curtin en Australia.

“No vas a recordar que estás hablando con las profundidades de Amazon… y sus servicios de recolección de datos si está hablando con la voz de tu abuela o tu abuelo o la de un ser querido perdido”.

“De alguna manera, es como un episodio de ‘Black Mirror’”, dijo Leaver, refiriéndose a la serie de ciencia ficción que imagina un futuro con temas tecnológicos.

El ingeniero de Google que cree que la IA de la empresa ha cobrado vida

La nueva característica de Alexa también plantea dudas sobre el consentimiento, agregó Leaver, particularmente para las personas que nunca imaginaron que un asistente personal robótico cantaría su voz después de su muerte.

“Hay una pendiente resbaladiza real allí de usar los datos de personas fallecidas de una manera que es a la vez espeluznante por un lado, pero profundamente poco ético por el otro porque nunca han considerado que esos rastros se usen de esa manera”, dijo Leaver.

Habiendo perdido recientemente a su abuelo, Leaver dijo que empatizó con la “tentación” de querer escuchar la voz de un ser querido. Pero la posibilidad abre una compuerta de implicaciones que la sociedad podría no estar preparada para asumir, dijo, por ejemplo, ¿Quién tiene los derechos sobre los pequeños fragmentos que la gente deja en el éter de la World Wide Web?

“Si mi abuelo me hubiera enviado 100 mensajes, ¿debería tener derecho a introducir eso en el sistema? Y si lo hago, ¿quién es el dueño? ¿Entonces Amazon posee esa grabación? preguntó. “¿He cedido los derechos de la voz de mi abuelo?”

Prasad no abordó tales detalles durante el discurso del miércoles. Sin embargo, postuló que la capacidad de imitar voces era un producto de “sin duda vivir en la era dorada de la IA, donde nuestros sueños y la ciencia ficción se están convirtiendo en realidad”.

Este modelo de IA intenta recrear la mente de Ruth Bader Ginsburg

Si la demostración de Amazon se convierte en una característica real, Leaver dijo que las personas podrían necesitar comenzar a pensar en cómo se podrían usar sus voces y semejanzas cuando mueran.

“¿Tengo que pensar en mi testamento que necesito decir: ‘Mi voz y mi historial pictórico en las redes sociales es propiedad de mis hijos, y ellos pueden decidir si quieren reanimar eso en el chat conmigo o no? ‘ se preguntó Leaver.

“Eso es algo raro de decir ahora. Pero probablemente sea una pregunta para la que deberíamos tener una respuesta antes de que Alexa comience a hablar como yo mañana”, agregó.

Leave a Comment