Ciencia

Google convertirá tus ondas cerebrales en música usando Inteligencia Artificial

MusicLM es una Inteligencia Artificial de Google que capaz de leer ondas cerebrales para convertirlas en sonidos armónicos.

MusicLM es una Inteligencia Artificial de Google que podría ser capaz de leer ondas cerebrales para convertirlas en sonidos armónicos.
Imagen: York Perry - Composición: DALL-E| MusicLM es una Inteligencia Artificial de Google que podría ser capaz de leer ondas cerebrales para convertirlas en sonidos armónicos.

Google hace equipo con una compañía japonesa en un nuevo y ambicioso proyecto musical en donde buscan aplicar lo último en tecnología de Inteligencia Artificial para convertir la actividad cerebral en música que podamos escuchar.

Durante los últimos meses hemos presenciado cómo la IA ha entrado en prácticamente cualquier territorio concebible para lograr un impacto jamás antes visto en nuestra sociedad a diferentes niveles.

En razón de ello hemos publicado recientemente una reflexión, una pieza de opinión, en donde comparamos la figura de Robert Oppenheimer, virtual padre de la bomba atómica, con Sam Altman, CEO de OpenAI y también relativo progenitor de la Inteligencia Artificial de ChatGPT.

Ambas figuras detonaron un cambio que en principio ahora luce mucho más pequeño y simbólico para el rango real de impacto profundo que podría tener en la historia de la humanidad, alterando de manera permanente el orden social y cultural.


Un perfecto ejemplo de esto es el más reciente proyecto de Alphabet, la gran empresa dueña del buscador web más famoso del mundo, en donde buscan convertir las ondas cerebrales en música. Básicamente porque estamos en un punto donde lograrlo es factible.

MusicLM: la Inteligencia Artificial de Google que puede convertir la actividad cerebral en melodía

Resulta que Google se ha asociado con un grupo de investigadores de Japón, quienes en conjuntos han encontrado la manera de producir música a partir de la actividad cerebral humana, todo luego de capturarla mediante una serie imágenes de resonancia magnética funcional (fMRI) para reconstruirlas a partir de su nuevo modelo de generación de música MusicLM.

Los pormenores de este proceso que convierte la operación del cerebro humano en tonadas armónicas han sido publicados en un paper de investigación bajo el título de Brain2Music: Reconstructing Music from Human Brain Activity (Brain2Music: Reconstrucción de la música a partir de la actividad cerebral humana).

Actividad eléctrica del cerebro. Foto: bing.com/images.

El documento relata cómo se montó el proyecto, donde se seleccionaron al azar clips de 15 segundos de 540 piezas musicales que abarcaban diez géneros diferentes. Entre las canciones seleccionadas para el experimento destacan melodías de Britney Spears, temas de Led Zepellin y clásicos de los Beastie Boys.

A partir de ahí cinco participantes escucharon los clips a través de un par de auriculares de inserción compatibles con MRI, tiempo durante el cual se escaneó su actividad cerebral.

Los investigadores introdujeron luego los datos en MusicLM para “predecir y reconstruir” los tipos de música a los que estuvo expuesto el sujeto humano.

Britney Spears es protagonista de un efecto Mandela.
Britney Spears es protagonista de un efecto Mandela.

Al final, la música generada tenía similitudes con la música que los sujetos de prueba escuchaban originalmente “en un nivel semántico”.

Las canciones generadas suenan como piezas distintas, aunque comparten similitudes en su tempo, compás y orden de percusiones.

Para comprobarlo con nuestros propios oídos Google ha lanzado una página web donde podemos escuchar la música generada por la Inteligencia Artificial.

Tags

.

Lo Último