El Futuro de la Música: Escuchemos a los algoritmos.

El Futuro de la Música: Escuchemos a los algoritmos.

Por: Mtro. Diego Martínez de Velasco A.

Artículo Exclusivo para: Revista Pensamiento Libre

En el futuro, ningún trabajo quedará 100% libre de la automatización, incluso el de los artistas.

¿Podrá la inteligencia artificial remplazar a músicos y compositores?

Muchos futuristas y analistas de negocios pronostican que un par de décadas, millones de personas en el mundo se quedarán sin empleo y serán económicamente irrelevantes, consecuencia de las nuevas tecnologías que poco a poco han ido superando al humano en la realización de muchos trabajos. En un principio se pensaba que la robótica, la automatización y la inteligencia artificial, solo remplazarían al hombre en tareas repetitivas o aquellas que requieren de un esfuerzo físico; pero que las labores que exigen habilidades cognitivas como el aprendizaje, la capacidad de análisis, de comunicación, la percepción, y sobre todo la creatividad, serían muy difíciles de sustituir. Sin embargo, la inteligencia artificial, comienza también a superar a los humanos en habilidades cognitivas, sobre todo cuando se trata de interpretar las emociones de las personas.

De igual manera, se creía que la creatividad poseía características que hacían difícil su automatización, no obstante, ya comenzaron a manifestarse ejemplos de cómo las tecnologías pueden intervenir en las industrias creativas. A finales de 2018, el colectivo creativo francés Obvious Art, sacó a la luz, la primera pintura hecha 100% por una máquina. La pintura se titula “Edmond de Belamy, from La Famille de Belamy” y se trata de un retrato estilo barroco, pintado por un algoritmo que analizó 15,000 pinturas de entre los siglos XIV y XX y elaboró una obra artística, que bien pudo haber sido pintada por Rembrandt o algún otro representante de esa corriente artística.

“Edmond de Belamy, from La Famille de Belamy”

El uso de tecnologías en la industria de la música no es algo nuevo, hemos atestiguado en el paso de los años, cómo se ha ido transformando y algunos expertos opinan que aún hemos visto muy poco. Los grandes cambios comenzaron en 1993 con el formato MP3 que permitió digitalizar la música; le siguió Napster en 1999 siendo la primera plataforma que democratizara la música, permitiendo descargas gratuitas; después en 2001 el primer iPod y iTunes aparecieron para facilitar la gestión y la reproducción de música, y posteriormente en 2008, surgieron Spotify y otras plataformas para la reproducción de música vía streaming. Éstas últimas, vinieron a cambiar la forma de consumir y comercializar la música. Lo que permiten estas aplicaciones, es generar una gran cantidad de datos a nivel global que posibilita saber cuáles son las preferencias de los oyentes en cada mercado, qué modalidad elige cada persona para escuchar música, cuál es el perfil de los artistas en una región determinada, así como optimizar las campañas de promoción de un nuevo álbum dependiendo de la zona geográfica, entre otros. Por lo tanto, ya no necesitamos de personas que nos vendan música, pero seguimos dependiendo de la creatividad de compositores, músicos, cantantes y DJs que aún son humanos, para crear nuevas obras y que como usuarios podamos elegir entre muchas posibilidades.

¿Será posible que éstos últimos sean sustituidos por la inteligencia artificial? Algunos futuristas como el historiador israelí Yuval Noah Harari, piensan que sí.

En su análisis, Noah Harari plantea que la música al igual que otras formas de arte, están asociados con las emociones humanas; el propósito de la música es conectarnos con nuestras emociones, inspirarnos y despertar nuevos sentimientos. ¿Qué podría pasar cuando los algoritmos de la inteligencia artificial sean capaces de entender y manipular nuestras emociones? Las emociones son el resultado de procesos bioquímicos, y gracias a tecnologías como el reconocimiento facial y distintos tipos de sensores, el machine learning (aprendizaje automático)podría analizar el tipo de personalidad de cada persona, cambios en los estados de ánimo, información biométrica entre otros datos para medir el impacto que pueda tener una canción en nuestras emociones. Y la música, al ser una matemática pura, también es muy susceptible a ser analizada. Es así como, por ejemplo, se podrían medir los cambios en los patrones neuronales al ser expuestos a distintas ondas de sonido, variaciones de ritmo, notas, etc. Como resultado, la tecnología podría conocer nuestro estado de ánimo, sumarle lo que ya sabe de nuestra personalidad y de nuestra sicología en general, y con base en ese cúmulo de información, podría reproducirnos canciones a la medida para conectarnos con nuestras emociones, ayudarnos a mejorar nuestro humor, etc.

Actualmente, los algoritmos ya procesan qué tipo de ritmos y géneros preferimos, y en un futuro no muy lejano, podrían ser capaces de componer tanto melodías personalizada para cada usuario, como para mercados masivos. Los algoritmos podrían ser inclusive mejores en producir éxitos globales analizando bases de datos masivas, y así podrían determinar qué tipo de ritmos crear para generar éxitos musicales que se escuchen en todo el mundo. Hoy en día ya existen empresas como Aiva Technologies, que compone temas musicales utilizando únicamente inteligencia artificial, donde el cliente lo único que elige es la emoción que requiere transmitir y la tecnología se encarga del resto.

Si bien la inteligencia artificial y otras tecnologías le permitirán a las casas productoras y a artistas, analizar tendencias, desarrollar éxitos globales, segmentar mejor sus mercados, generar mejores estrategias de comercialización digital, etc., personalmente creo que aún estamos lejos de que alguna de estas tecnologías remplace la inigualable experiencia de escuchar a una banda de rock, a un pianista o a una sinfónica tocar en vivo. Mientras tanto, la gran creatividad y talento de compositores y música seguirá siendo bien recibida y apreciada. ¿Y tú, qué opinas?

Lo más reciente

Comentarios

El email no será publicado. Campos obligatorios *