Faux tracks : Deezer déploie son outil pour tracker l’IA
En ce début 2025, Deezer annonce le déploiement d’un outil pour détecter les musiques générées par IA. Le résultat est glaçant : chaque jour, environ 10.000 pistes entièrement composées par l’intelligence artificielle sont déposées sur la plateforme de streaming. On a voulu décortiquer ça avec Aurélien Hérault, directeur de l’innovation chez Deezer.
Le monde de la musique s’invite jour après jour dans un film de SF. Les rythmes et les chansons, qui accompagnent vos journées et vos soirées les plus endiablées, ne sont peut-être pas le résultat d’une créativité et expression humaine : ils sont aussi façonnés par un être invisible, scriptés dans une langue faite de 1 et de 0. Deezer déploie son outil pour tracker les (très nombreux) titres et chansons créées par IA, qui sont jusqu’à 10 000 par jour.
Digne d’une rencontre du troisième type, Deezer se lance dans une enquête de haut vol pour tenter de débusquer ce créateur aux mille masques. Début 2025, elle sort même l’artillerie lourde avec un nouvel outil de détection des tracks produits par IA. On en a parlé un peu plus avec Aurélien Hérault, directeur de l’innovation chez Deezer.
Quel est le nom de l’outil mis en place ?
On n’a pas de nom spécifique. On utilise en interne un nom de consortium : Préludia. Même si on ne l’a pas baptisée, l’IA detection est quelque chose sur lequel on a communiqué. Parce qu’il nous semblait le plus pertinent et le plus abouti. Mais il y a toute une suite d’outils qui vont nous permettre de prendre le virage IA et d’accompagner les ayants droit autour de cette transformation.
Comment ça fonctionne, l’IA detection ?
On reçoit les catalogues de tous les ayants-droit avec l’engagement de tout publier sur notre plateforme. Parmi ces ayants droit, certains décrivent précisément leur musique grâce à diverses métadonnées (le genre, etc.) tandis que d’autres, souvent indépendants, se contentent du strict minimum.
Afin que tout le monde soit au même niveau, nous faisons passer ces fichiers dans des analyseurs pour décrypter le type audio. À partir des résultats, nous extrayons des descripteurs qui permettent de mieux définir l’ensemble de la musique reçue. L’outil d’IA detection fait partie de ces analyseurs qui nous fournissent une information essentielle pour enrichir les description : « est-ce un track généré par IA ou provient-il d’un artiste humain ? ».
À lire également : Déroute de Spotify: a-t-on franchi le point de non-retour ?
Ces outils étaient-ils une nécessité pour vous ? Qu’est-ce qui a déclenché la mise en place des outils ?
Je suis à Deezer depuis 2007. Au début, on ne recevait pas énormément de titres. C’était relativement confidentiel. Au fur et à mesure, se sont montés les agrégateurs comme DistroKid, TuneCore, etc. Ce sont de formidables outils qui permettent les indépendants de mettre leur musique en ligne. Les catalogues ont commencé à gonfler par cette nouvelle manne d’artistes ouverte par ces services de distributions.
De-là, on s’est aperçus qu’il allait devenir compliqué de gérer ce flux humainement. Le département de recherche et développement a ouvert en 2012. De la Big Data, le Machine Learning, le Deep Learning, on est arrivés à l’IA. Un outil aujourd’hui indispensable pour gérer les 100.000 titres livrés par jour.
Vous avez annoncé : « Les outils disponibles sur le marché aujourd’hui peuvent être très efficaces tant qu’ils sont entraînés sur des ensembles de données provenant d’un modèle d’IA générative spécifique, mais leur taux de détection diminue considérablement dès que l’outil est soumis à un nouveau modèle ou à de nouvelles données. » Comment ce nouvel outil a-t-il pu relever ce défi technologique ?
En testant différentes solutions du marché, on s’est aperçu que ça ne résolvait pas l’intégralité du problème. Des lacunes de ces outils, on a développé un nouvel outil basé sur notre catalogue qui permet d’être un peu plus généraliste. Je ne dis pas qu’on a résolu le problème, mais une partie sûre. 10% de tracks entièrement produits par IA, c’est un résultat minimum.
En effet, le système a ses limites. On peut contourner certaines détections en ajoutant de la reverb ou d’autres filtres. Nous, on s’est concentrés sur la capture au maximum des titres 100 % générés par IA, même avec quelques altérations. Maintenant, on sait très bien qu’on ne capture pas tout non plus.
Quels critères ont été sélectionnés dans le codage pour réussir à retrouver ces 10 % de sons créés par IA ?
Les critères sont liés à l’évolution des modèles de ce qu’on appelle des encodeurs comme Suno ou Udio, qui transforment un prompt en un signal audio. Il y a quelques années, ces encodeurs-là étaient moins sophistiqués et avaient un défaut de fabrication.
Les modèles sont devenus de plus en plus sophistiqués, de plus en plus réalistes rendant la détection plus dure. Malgré tout, il reste un phénomène statistique dans les modèles génératifs parce qu’ils laissent des traces inaudibles dans le signal, liées à l’architecture des encodeurs. Des marques inaudibles pour un être humain, mais qui se détectent relativement facilement par les machines.
Quelles ont été les étapes pour vérifier l’ensemble des tracks ?
La première étape a été de passer le détecteur sur une partie du catalogue datant d’une époque où les modèles génératifs n’existaient pas. S’il en détectait, c’était qu’il y avait un problème. On a pu vérifier la fiabilité de notre système sur un catalogue antérieur aux modèles génératifs.
La deuxième a été d’analyser les livraisons des derniers mois qui corellaient avec la sortie de nouvelles versions ou modèles génératifs. Quand Suno sort sa V3 ou Udio sa V2, on a observé sur nos graphiques que la sortie de ces modèles génératifs s’accompagnaient d’une augmentation des pistes créés 100% par IA.
Actuellement, nous analysons l’intégralité du catalogue, depuis le tout premier track jusqu’à aujourd’hui. C’est un travail encore en cours, principalement concentré sur les dernières sorties, puisqu’on a statistiquement plus de chances de trouver des tracks générés par IA que dans un catalogue datant d’il y a 10 ans.
À lire également : Yoyaku, le disquaire et label passe au 100% vinyles
Est-il envisageable que les utilisateurs de la plateforme puissent voir le pourcentage d’IA utilisé en cliquant sur les crédits d’un morceau ?
Ça reste compliqué à mettre en place, notamment pour calculer précisément le pourcentage d’IA. Comme dans Photoshop aujourd’hui, lorsque vous appliquez des filtres, vous utilisez des modèles basés sur l’IA sans vraiment le savoir. De la même manière, quand vous écrivez un e-mail et qu’il est complété automatiquement, cela fait appel aux Transformers, qui sont au cœur de l’IA générative.
C’est pourquoi, pour simplifier la problématique, nous nous sommes concentrés sur les morceaux 100 % générés par IA sortant d’un modèle brut, sans modification. Notre première étape sera sûrement d’afficher aux utilisateurs les morceaux 100 % générés par IA. Quant à aller plus loin dans la granularité de l’utilisation de l’IA, je pense qu’il reste encore de nombreuses étapes à franchir avant d’y parvenir.
Y a-t-il des profils typiques de « faux artistes » IA ?
Il y en a, oui ! Certains uploadent des morceaux un peu amusants pour un anniversaire ou pour faire une blague à un ami. Du point de vue de la distribution, c’est plus facile de les mettre en ligne sur une plateforme : ça coûte quelques euros et voilà, ils s’amusent avec, mais il n’y a pas d’usage réel.
Puis, il y a un profil plus typique : le spammeur, qui va livrer plusieurs albums par jour—un artiste très productif ! (rires). Son objectif est avant tout de capturer des parts de marché. C’est surtout cela qui nous pose problème.
Quels sont les dangers de ce genre d’artistes ? Sont-ils les représentants du son de demain ou de simples copies à but commercial ?
Je pense que l’IA est un formidable outil pour ceux qui ne maîtrisent pas forcément les instruments, etc. Mais derrière, il faut une démarche artistique, une émotion à transmettre. L’IA n’est qu’un instrument qui facilite un mode d’expression, et cela ne nous dérange absolument pas. Au contraire, c’est une opportunité.
Ce qui nous dérange vraiment, c’est l’exploitation de ces opportunités à des fins purement commerciales, pour capter des parts de marché, optimiser un catalogue et, au final, priver de réels artistes—ceux qui ont une véritable démarche et quelque chose à transmettre—de la possibilité d’en vivre.
L’utilisation de l’IA de détection vient-elle se heurter à la nécessité d’avoir un grand catalogue ?
Quand j’ai commencé chez Deezer, c’était magique de rendre accessible l’ensemble du catalogue musical mondial, de mettre à disposition un pan culturel de notre patrimoine pour le monde entier. Il y avait une forme d’euphorie, mais une fois que cela a été fait, on s’est rendu compte qu’on stockait énormément de contenu, et pas seulement de la musique. Alors, on s’est posé la question : « Est-ce bien nécessaire de tout conserver ? »
L’IA générative, son stockage et son utilisation consomment énormément de ressources. Ce qui nous est livré est aussi livré à tous les autres acteurs du marché. Cela représente des milliers de copies. L’utilisation de l’IA générative permet de retirer du catalogue ce piste vide ou faites par intelligence artificielle et de ne pas transformer les data centers en décharges numériques.
À lire également : BBC Radiophonic Workshop : un héritage sonore révolutionnaire accessible à tous
Quel rôle doit avoir Deezer dans la création d’ une relation saine entre innovation technologique et industrie créative/musicale ?
En tant qu’acteur à la fois technique et culturel, nous nous positionnons à la croisée des chemins. Cet emplacement central permet de jouer un rôle pédagogique. En médiateur, nous pouvons capter des phénomènes que d’autres acteurs, notamment ceux purement culturels faute de connaissances techniques, ne perçoivent pas forcément.
Dans ce sens, la transparence est d’autant plus essentielle. Il faut ouvrir le capot : nous n’avons rien à cacher, au contraire. Nous avons des expertises, des connaissances. Et l’important est de les partager, pas de les dissimuler. C’est pour cela que nous avons initié une collaboration avec le CNRS.
À une époque, on nous reprochait d’enfermer les utilisateurs dans des bulles de filtrage. Nous avons été les premiers à ouvrir nos données et à les partager avec des laboratoires de recherche, afin qu’ils puissent nous dire : « Faisons-nous bien notre travail ? » et, si ce n’était pas le cas, « Que pouvons-nous améliorer ? »
___________
Si cet outil a réussi un bel exploit dans ce « Où est Charlie » géant, amateurs et professionnelles tentent à leur échelle de se prêter au jeu. Certains s’amusent des artistes IA, allant jusqu’à leur dédier tout un compte, tandis que d’autres donnent quelques conseils pour identifier les tracks générés par IA.
Voir cette publication sur Instagram