L'intelligence artificielle générative Musiciens de la nouvelle ère numérique
L'intelligence artificielle générative Musiciens de la nouvelle ère numérique 1808
Après l'imitation et la synthèse, l'intelligence artificielle s'est hissée au rang de musicienne (Shutterstock)
Compléter les réalisations des robots scientifiques et de l'industrie des puces
Le robot a joué de la musique, les puces électroniques ont installé des groupes mélodiques, puis l'intelligence artificielle a chanté une chanson de sa propre fabrication, et il n'a pas tardé à sauter sur la plate-forme du musicien qui compose de la musique pure semblable aux classiques humains.
Les mots ci-dessus décrivaient-ils la trajectoire évolutive rapide et hâtive, bien sûr, inappropriée, de la relation entre la musique et l'intelligence artificielle ? Très probablement, il n'a réussi qu'à lancer un éclair sur un vaste labyrinthe entrelacé de couloirs qui peuvent rester inconnus pendant un temps inconnu.
L'intelligence artificielle générative Musiciens de la nouvelle ère numérique 1-1741
Faisons un petit pas en arrière.
Il y a six ans, en juin 2017, les médias publics rapportaient deux histoires qui n'étaient apparues qu'à quelques jours d'intervalle. Le premier portait la bonne nouvelle que l'intelligence artificielle avait réussi à composer de la musique pour la première fois. Et cela est venu après une série de réalisations au cours des années précédentes, qui ont permis aux robots de jouer de divers instruments de musique tels que le piano, en plus d'assumer la direction de l'ensemble de l'orchestre musical en jouant une symphonie classique.
Selon les détails de cette réalisation, "l'Institut international de recherche" en Belgique a pu fabriquer des puces électroniques capables de composer de courtes pièces musicales. Et ces puces ont répété le son de la vieille flûte belge. Après beaucoup de patience et de répétition, ces puces ont réussi à créer un court morceau de musique avec le son de cette flûte.
Dans la deuxième nouvelle, il a été découvert que des chercheurs du Georgia Institute of Technology en Amérique étaient capables d'entraîner un robot à quatre bras pour composer des morceaux qu'il jouait lui-même sur le marimba en bois, qui est similaire au célèbre xylophone, mais il est de taille énorme et nécessite de gros bâtons, en battant relativement sur ses planches de bois pour en faire sortir les mélodies résonnantes. Dans un détail remarquable, ces chercheurs ont appris aux puces du robot environ 5 000 chansons, dont des symphonies de Beethoven, des chansons des Beatles et une performance vocale de Lady Gaga, entre autres. En conséquence, l'intelligence artificielle du robot a créé deux morceaux de trente secondes chacun, qu'il a lui-même joué au marimba.
L'intelligence artificielle générative Musiciens de la nouvelle ère numérique 1-1742
?Qui a chanté à Los Angeles
Début 2023, la chanteuse Yun Wang a chanté la chanson "Duke of New York" sur une scène à Los Angeles, mais ce que le public a entendu, c'est sa voix après avoir été reconstruite par l'intelligence artificielle. Cette interprète a décrit son expérience comme une expérience de collaboration et d'intégration avec la performance de machines intelligentes. L'expérience a utilisé une technologie automatisée intelligente appelée RAVE, qui signifie Realtime Audio Variational AutoEncoder, selon le New York Times.
La technique "Rive" fournit un modèle pour travailler sur l'apprentissage en profondeur des machines intelligentes, au moyen d'algorithmes avancés, sur un type particulier de sortie, qui était représenté, dans ce cas, par une performance de chant vocal. La technologie « Rave » a été inventée en 2021 par l'informaticien français Antoine Cayon, dans le cadre de recherches qu'il a menées à l'institut français « IRCAM » spécialisé dans la recherche sonore et musicale, selon le « New York Times ».
Dans un commentaire à elle rapporté par ce même journal, la professeure américaine Tina Talon a mentionné que les informaticiens ont utilisé diverses techniques d'intelligence artificielle pour parvenir à des interventions différentes et progressives sur la voix humaine, à partir des années soixante du XXe siècle. Le professeur Talon a souligné que cela signifie que d'énormes quantités de données et d'expériences étaient disponibles pour la technologie "Rave", qui lui a permis d'effectuer la performance vocale qui accompagnait la voix du chanteur Wang.
L'intelligence artificielle générative Musiciens de la nouvelle ère numérique 1--807
Le journal souligne également que des experts en intelligence artificielle, dont le Français Kayon, développent un ensemble de systèmes spécialisés dans le son et la musique, similaires aux programmes "SingSong" et "MusicLM" supervisés par Google. Ces développements et d'autres ont ouvert la voie à l'émergence de la plate-forme WavTool, basée sur le système GPT-4 (fabriqué par OpenAI) pour installer un système technique spécialisé dans la composition de morceaux de musique.
Dans ce contexte, le professeur Talon a expliqué que les programmes d'intelligence artificielle spécialisés dans la musique, tels que « MusicLM », sont également basés sur une formation d'apprentissage en profondeur pour les machines intelligentes , en utilisant une base de données qui comprend des milliers d'heures de musique provenant de sites tels que « YouTube ». ". et diverses plateformes numériques musicales et autres sources.
Deux intelligences, une musique
Dans le même contexte, selon le "New York Times", le spécialiste Talon n'a pas manqué de pointer le déferlement de la vague de l'intelligence artificielle traditionnelle, accompagnée d'une virée à faire de nouvelles chansons interprétées avec les voix de chanteurs célèbres, en en plus de l'installation de pièces musicales pures qui imitent les chansons faites par des musiciens humains, mais ne leur correspondent pas, y compris la musique classique.
Dans le même contexte, le New York Times a rapporté d'autres expériences diverses, dont une œuvre symphonique intitulée "Silicon" dans laquelle la technologie de l'intelligence artificielle générative a été utilisée pour créer des combinaisons musicales innovantes qui ont été ajoutées à des compositions créées par l'homme, sur la base d'une énorme base de données dans musique. Ainsi, le musicien britannique Robert Laidlaw, qui a dirigé l'expérience "Silicon", n'a pas hésité à souligner que ce travail "porte autant sur la technologie de l'intelligence artificielle que sur l'utilisation de cette technologie elle-même".

À ce stade, un champ large et flou s'ouvre aux questions sur les mécanismes, les modalités, les limites et les contrôles dans ce chevauchement entre l'intelligence humaine et artificielle dans la musique. Il est probable que ces questions, les raisons de les poser et la façon d'aborder la réflexion à leur sujet nécessitent des discussions approfondies.



Source: sites Internet