En un estudio de grabación poco iluminado de Seúl, los productores de la discográfica de K-pop que trajo al mundo al exitoso grupo de chicos BTS están utilizando inteligencia artificial para fusionar la voz de un cantante surcoreano con las de hablantes nativos de otros cinco idiomas.

Esta tecnología permitió a HYBE, el mayor sello musical de Corea del Sur, publicar en mayo un tema del cantante MIDNATT en seis idiomas: coreano, inglés, español, chino, japonés y vietnamita.

Algunos cantantes de K-pop han publicado canciones en inglés y japonés, además de su coreano nativo, pero aplicar la nueva tecnología para un lanzamiento simultáneo en seis idiomas es una primicia mundial, según HYBE, y podría allanar el camino para que la utilicen más actuaciones populares.

"Primero escucharemos la reacción, la voz de los fans, y luego decidiremos cuáles deben ser nuestros próximos pasos", dijo Chung Wooyong, el jefe de la rama de medios interactivos de HYBE en una entrevista en el estudio de la empresa.

Lee Hyun, de 40 años, conocido como MIDNATT, que sólo habla de forma limitada inglés y chino además de coreano, grabó la canción "Masquerade" en cada idioma.

Los hablantes nativos leyeron en voz alta la letra, y después ambas se combinaron a la perfección con la ayuda de la tecnología musical de IA interna de HYBE, explicó Chung.

La canción es la última señal de la creciente influencia de la IA en la industria musical en un momento en el que los premios Grammy han introducido nuevas normas para el uso de esta tecnología y los mash-ups de canciones generados por IA inundan las redes sociales.

"Dividimos un fragmento de sonido en diferentes componentes: pronunciación, timbre, tono y volumen", explicó Chung. "Nos fijamos en la pronunciación, que está asociada al movimiento de la lengua, y utilizamos nuestra imaginación para ver qué tipo de resultado podíamos obtener utilizando nuestra tecnología".

En una comparación del antes y el después mostrada a Reuters, se añadió un sonido vocálico alargado a la palabra "twisted" de la letra inglesa, por ejemplo, para que sonara más natural, mientras que no se hizo ningún cambio detectable en la voz de la cantante.

El uso del aprendizaje profundo impulsado por el marco de Análisis y Síntesis Neuronal (NANSY) desarrollado por Supertone hace que la canción suene más natural que si se utiliza un software que no sea de IA, dijo el director de operaciones de Supertone, Choi Hee-doo.

HYBE anunció la adquisición de Supertone por 45.000 millones de wones (36 millones de dólares) en enero. HYBE dijo que planeaba poner parte de la tecnología de IA utilizada en la canción de MIDNATT a disposición de los creadores y del público, pero no especificó si cobraría tasas.

'EXPERIENCIA INMERSIVA

MIDNATT dijo que el uso de la IA le había permitido un "espectro más amplio de expresiones artísticas".

"Siento que se ha eliminado la barrera del idioma y es mucho más fácil para los aficionados de todo el mundo tener una experiencia inmersiva con mi música", afirmó en un comunicado.

Aunque la tecnología no es nueva, es una forma innovadora de utilizar la IA en la música, dijo Valerio Velardo, director de The Sound of AI, un servicio de consultoría de música y audio con IA con sede en España.

No sólo los músicos profesionales, sino también una población más amplia se beneficiarán de la tecnología musical de IA a largo plazo, afirmó Velardo.

"Va a reducir la barrera de la creación musical. Es un poco como Instagram para las fotos pero en el caso de la música".

Por ahora, la tecnología de corrección de pronunciación de HYBE tarda "semanas o meses" en hacer su trabajo, pero cuando el proceso se acelere, podría servir para una gama más amplia de propósitos, como la interpretación en videoconferencias, dijo Choi Jin-woo, el productor de "Masquerade" de MIDNATT que se hace llamar Hitchhiker. (Reportaje de Hyunsu Yim; Reportaje adicional de Daewoung Kim y Hyun Young Yi; Edición de Josh Smith y Jamie Freed)