mega888
Connect with us

Hi, what are you looking for?

Cultura

La era del fantasma en la máquina

Un par de meses atrás, mi combate contra el impulso periodístico de leer notas, libros o reportajes que trataran el tema de la inteligencia artificial (IA) aplicada a la música se terminó. Estaba al tanto de que los dos Beatles vivos habían apelado a las nuevas tecnologías para redondear “Now and then”, su última canción, y también supe del enojo de Bad Bunny cuando alguien tomó su voz y la de Daddy Yankee para utilizarlas en una canción titulada, nada menos, “NostalgIA”. Y también sabía que uno de los motivos centrales de la última huelga de actores y actrices en Hollywood estaba relacionado con la intención de los grandes estudios de utilizar la inteligencia artificial para replicar sus imágenes y voces.  



El rechazo tenía su origen en el temor de que, al interiorizarme en el tema, se agregara un nuevo ítem a mi convencimiento de que el fin del mundo está demasiado cerca. La advertencia que las principales compañías que desarrollan la IA —Anthropic, OpenAI y Google entre otras— hicieron pública a fines del año pasado, relacionada con el peligro que entraña su uso indiscriminado, no hizo más que confirmar mis presentimientos. 

Breve digresión: mientras escribía estas palabras, salió publicado el nuevo comunicado del Boletín de los Científicos Atómicos, una organización fundada en 1945 cuya misión es informar al planeta del peligro de un holocausto nuclear final. En el último comunicado, los científicos, además de volver a advertirnos de que las guerras, la explotación sin control de los recursos naturales y el calentamiento global nos están llevando a la extinción, sumaron un apartado que advierte sobre los peligros de la inteligencia artificial. 

La resistencia se terminó un domingo a la mañana, cuando quise ver en YouTube por enésima vez la consagración de la selección argentina de fútbol en el mundial de Qatar. Quise concentrarme en el inolvidable contragolpe del segundo gol de Argentina contra Francia, en la grandiosa atajada final del Dibu, pero a la derecha de la pantalla, entre las sugerencias del algoritmo, había una titulada «KurtCobain “Black HoleSun” AI Cover». Traducido: una versión de “Black Hole Sun” a cargo de un Kurt Cobain modelado por la IA.

Veinte años atrás se puso de moda el mash up, una idea que consiste en cruzar dos canciones y que tuvo su clímax en el genial Grey album (2004), el álbum gris, a cargo del productor Danger Mouse, que yuxtapuso el White album (1968) de Los Beatles con el Black album (2003) del rapero Jay Z. El resultado fue desparejo y extraordinario, pero la tecnología utilizada era la del sampleo: aislar pedazos de canciones del disco de Los Beatles y, con esos fragmentos, rearmar las canciones de Jay Z. 

El procedimiento del mash up tiene en la pericia del productor su elemento clave. Si el plan resulta sospechoso, basta con escuchar el disco de Danger Mouse, despejar las dudas y los prejuicios y sacar las conclusiones pertinentes. Recomendación: empezar por “99 Problems / Helter Skelter”. 

Pero ahí, latiendo en la pantalla, estaba la invitación de You Tube a escuchar un Cobain resucitado por la IA. ¿Cómo no escuchar una versión del líder de Nirvana, uno de mis artistas preferidos, de aquella extraordinaria canción de Soundgarden, incluida en el igualmente extraordinario álbum titulado Superunknown, publicado en 1994?

Play: la primera escucha me dejó una sensación de vacío. Sí, era la voz de Cobain la que entonaba la melodía sutilmente beatle de “Black Hole Sun”. Pero era imposible ignorar que la interpretación era en realidad el diseño de un software que seleccionó la voz de Cobain sílaba por sílaba de la discografía de Nirvana y luego la reorganizó sobre la partitura de la canción de Soundgarden. A diferencia del mash up, esta nueva operatoria prescinde del componente humano. 



Volví a escuchar la canción una vez más, como para dejar a un lado el extrañamiento de la primera pasada. Si uno se concentra en la voz de este Cobain zombie —está muerto pero alguien lo revive para que cante a pedido— comienza a notar algunas peculiaridades. La primera es que los remaches y las costuras del ensamblado de las sílabas —pequeños hipos— se hacen palpables, como si Cobain cantara pensando en no equivocarse, lo que redunda en una interpretación contenida, algo totalmente antinatural en este artista, que era pura descarga y efusión.  

Nada hay de la intensidad y la textura rota de su registro, que lo convirtió en uno de los cantantes más viscerales de las últimas tres décadas y, por qué no, del rock en su historia. Tras el desconcierto, surgió la pregunta frente a lo improbable: ¿habría cantado Cobain esa canción de Soundgarden? Quizás sí: Nirvana y Soundgarden emergieron de la misma escena musical y sus integrantes, además de amistad, se profesaban una admiración mutua. Pero, ¿la habría cantado tal como lo pensó el software que la editó? 

Ahora, cada vez que entro a YouTube me aparecen sugerencias de versiones hechas por IA con combinaciones lógicas —Cobain cantando canciones de Los Beatles—, o disparatadas, como Frank Sinatra interpretando “Smells like teen spirit”.



A medida que iba adentrándome en el agujero negro surrealista en el que había caído, el aburrimiento aumentaba. Si bien las posibilidades combinatorias son infinitas, el chiste se termina muy rápido, y toda esa cantidad de información conlleva el replanteo de la experiencia de la escucha musical. A la vez, significa nada.   

Algunas preguntas, dejando de lado esta aplicación simpática de la nueva tecnología: si, como está ocurriendo, la IA se utiliza para componer, arreglar y ecualizar música, ¿dónde empieza y termina la autoría de una canción hecha con estas herramientas? ¿hasta qué punto el artista utiliza el software, o es el software el responsable de las decisiones creativas? ¿es la obra resultante una creación intelectual? Y en un plano más prosaico: ¿cómo se tributan los derechos autorales y de reproducción de esa obra? Y una más, de corte filosófico: ¿la capacidad de crear música dejó de ser patrimonio de los seres humanos?

Lennon grabó el rudimentario demo de “Now and then” en 1977. El primer intento de reflotar la canción ocurrió a mediados de los años 90, cuando George, Ringo y Paul encararon el proyecto Anthology. Pero la tecnología de aquel entonces no pudo limpiar la mugre sonora de la pista original y los tres Beatles restantes no se pusieron de acuerdo para componer las estrofas que faltaban y cerrar así la canción. El que plantó la negativa fue, previsiblemente, Harrison. El año pasado, y con la ayuda de la IA, Paul y Ringo volvieron a la carga: eliminaron el zumbido de la cinta original, mejoraron la voz de Lennon y aportaron sus propias voces. Paul agregó guitarras, compuso y arregló las piezas faltantes de este Frankenstein musical.    

Después de escucharla varias veces, es válido preguntarse: ¿es “Now and then” una canción de Los Beatles, es decir, el producto de la dinámica interna del grupo que cambió la cultura del siglo XX? Sí y no. Sí: está la voz de Lennon, los arreglos de McCartney, la batería de Ringo y hasta una guitarra con slide que toca el propio Paul emulando a George. No: falta la interacción creativa que dio origen a canciones sublimes y hay, en su reemplazo, manipulación tecnológica. Como un holograma, fantasmagórica y límpida, la voz de Lennon, que compuso “Now and then” siete años después de la separación de Los Beatles, sobrevuela un artefacto hecho a base de clicks.    

El pacto de verosimilitud que se sostuvo hasta el auge de las bandas tributo quedó muy lejos en el tiempo. Si el público de un concierto de Dios Salve a la Reina optaba por dejar de lado la incredulidad y hacía de cuenta que estaba en un recital de Queen, la IA destrozó ese “como si” y lo reemplazó por una lógica de diseño a pedido del usuario: Cobain cantando “Fortunate son” de Creedence, Freddie Mercury cantando “Thriller” de Michael Jackson, Sinatra cantando “Master of puppets” de Metallica… la lista es infinita y agotadora. 



La palabrita terrorífica, habilitada por la nueva tecnología y que pende sobre nuestras cabezas, es deepfake, un video, audio o imagen generado por IA que copia la apariencia o el sonido de una persona y que muestra como real algo que no existe. ¿Es real la versión de Cobain de la canción de Soundgarden? Sí, porque la estoy escuchando; pero no, porque Cobain nunca la grabó. Taylor Swift vivió en carne propia el horror del deepfake semanas atrás, cuando circuló en la red social X un video porno falso que la tenía como protagonista. 

Esta nueva realidad cierra una era y una manera de crear y consumir música. En los últimos 60 años, con cada avance tecnológico se repitieron los anuncios de que había llegado el fin de la música: cuando aparecieron los sintetizadores, cuando el auge de las máquinas de ritmo, con la llegada del sampler y luego del software Pro-Tools. La irrupción de la IA incorpora un factor novedoso que cambia la ecuación porque esta tecnología posee un grado de autonomía que ninguna de las herramientas mencionadas anteriormente poseía. De hecho, los responsables de su creación y perfeccionamiento reconocen no saber del todo qué ocurre en el cerebro cibernético cuando toma determinadas elecciones. 

¿Es este el fin de la música? Ciertamente, no. Pero la IA pone entre paréntesis la música concebida como la interacción creativa entre seres humanos porque toma como plataforma la cantidad incuantificable de información musical almacenada en Internet y, a pedido del usuario, ofrece combinaciones para satisfacer su solicitud. La creación musical, así entendida, se transforma en una operación de estadística diseñada para dejar contento al oyente/usuario. ¿Este diagnóstico resulta demasiado sombrío? Quizás, pero los cambios que se están operando en las compañías discográficas, las principales plataformas de streaming y los medios de comunicación parecen confirmarlo. 

Un par de meses atrás, YouTube, Tidal, Amazon Music, Universal Music, Soundcloud y el omnipresente Spotify despidieron cientos de empleados, luego de que estudios de mercado concluyeran que la mayoría de los oyentes prefiere escuchar sus canciones y artistas favoritos antes que adentrarse en propuestas nuevas. Los despidos evidencian la decisión de no invertir dinero en el desarrollo y promoción de artistas emergentes, y de utilizar ese dinero en la compra de los derechos de los catálogos de música vieja. Esta semana se conoció la noticia de que los miembros de Queen están a punto de firmar la venta de su catálogo a un comprador todavía no revelado por 1.200 millones de dólares. 

El desarrollo de artistas nóveles implica, además de dinero, el riesgo de que la inversión económica no sea redituable. La comodidad de disponer en un teléfono celular de toda la música grabada existente ha creado una nueva clase de oyente, agobiado frente a lo infinito y por lo tanto más perezoso y menos dispuesto a aventurarse en la búsqueda de nuevos sonidos. Las listas de reproducción y las pistas sonoras creadas por IA que las plataformas sugieren a sus usuarios están hechas a partir de sus elecciones. En resumen: la apuesta es darle a un oyente pasivo solo lo que quiere escuchar. 

Este estado de cosas representa un cambio crucial en la forma en que la música es creada y consumida. Con el auge del streaming, el circuito de la producción musical tal como lo conocíamos —los artistas, los sellos discográficos, las distribuidoras de discos, las disquerías, las radios, revistas especializadas y otros canales de difusión— perdieron su razón de ser. ¿Quién va a leer una reseña sobre el primer disco de una banda desconocida si ya tiene en su teléfono todo lo que quiere escuchar? 

Un dato más sobre este último punto: días atrás se conoció la noticia de que la empresa Condé Nast, casa editorial de numerosas publicaciones –Vogue y Glamour, entre muchas otras–, compró Pitchfork –emblema de las revistas norteamericanas dedicadas al rock– y decidió fusionarla con GQ, una publicación destinada al público masculino adinerado, con artículos sobre moda, salud, viajes y comida. Traducido en argento: es como si editorial Atlántida hubiera comprado Mordisco o Pelo para fusionarla con Para Tí.

El panorama es desalentador, pero por más que las principales compañías y plataformas crean —en clave orwelliana— que en el pasado está el futuro, y que muchos oyentes prefieran escuchar una y otra vez las mismas canciones, siempre habrá un público curioso. Y siempre habrá artistas creando música novedosa y formidable. Y siempre habrá periodistas escribiendo sobre nuevos sonidos. Las formas de producción y consumo de la música están cambiando, pero hay algo inalterable: la imprevisibilidad de la creación artística. Cada tanto, aparece un artista que desde un lugar inesperado y subterráneo pega un martillazo en la estantería y obliga a la industria a replantearse sus esquemas. El futuro está adelante, no atrás. Y, como dijo alguien que la tenía clara, mañana es mejor. La pregunta es, en todo caso, si habrá un mañana. 


Facebook comentarios

Autor

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

También te puede interesar