Unsplash
#1257

Intelligence artificielle, métavers et industries culturelles

Entretien avec Joëlle Farchy, professeure à Paris 1 Panthéon-Sorbonne (Centre d’économie de la Sorbonne, CES) et coordonnatrice avec Cécile Méadel, professeure à Paris Panthéon-Assas du projet STYX au sein du programme de recherche Industries culturelles et créatives (ICCARE) de France 2030.

Pouvez - vous nous présenter les ambitions du projet STYX ?

Joëlle Farchy : STYX ambitionne d’analyser, en synergie avec les approches scientifiques et techniques, les dimensions socio-économiques des transformations numériques en cours au sein des ICC. Il s'intéresse en particulier aux effets des technologies immersives, décentralisées et génératives sur les industries culturelles et créatives (ICC), autour de deux objets : le développement des métavers et l’intégration de l'intelligence artificielle.

Le projet est en adéquation avec les ambitions de France 2030 puisqu’il s’agit d’une recherche action dont l’une des vocations est de produire des préconisations aussi bien pour les Pouvoirs publics que pour les professionnels.

Le métavers est-il encore d’actualité ?

Pendant quelques années, « LE » métavers a captivé médias, entrepreneurs, et régulateurs avant qu’ils ne s’en détournent largement au profit de débats sur l’intelligence artificielle ou sur l’essor des dispositifs immersifs notamment dans des musées et des expositions. La promesse « d’UN » métavers, espace global, virtuel et immersif où s’entrelaceraient harmonieusement les mondes physiques et numériques, n’est pas advenue. Deux manières d’envisager l’avenir sont alors apparues. La première, téléologique, consiste à penser que le métavers est un devenir qui se réalisera finalement, à terme, à l’aide d’innovations technologiques (démocratisation de la réalité virtuelle, interopérabilité des plateformes…). La seconde questionne la définition du métavers. Loin d’être un concept ultra-technologique, les métavers désigneraient des espaces virtuels répliquant les dynamiques sociales, économiques, et culturelles du monde réel.

Or, de telles plateformes existent déjà : certains jeux vidéo, appelés proto-métavers ou antécédants des métavers (exemple : Roblox, Fortnite, Decentraland…), se caractérisent par ces dynamiques sociales et économiques que ne partagent pas les jeux vidéo classiques ; ces plateformes reposent en effet sur les interactions entre utilisateurs, permettant la création d’objets, de jeux et d’environnements virtuels, et donnant naissance à des marchés de biens et de services. On peut dès lors se déprendre d’une perspective purement théorique pour étudier le « métavers en construction », ses enjeux et évolutions à partir de plateformes existantes qui en exhibent les traits principaux.

De nombreux débats aujourd’hui opposent les industries culturelles et les fournisseurs de modèles d’IA notamment sur la question de la propriété intellectuelle. Pouvez-vous éclairer les enjeux de ces débats ?

Les systèmes d’IA, pour effectuer les diverses tâches nécessaires à leur fonctionnement, depuis la phase de pré-entrainement des modèles de fondation jusqu’à l’affinage (fine tuning) ou l’ancrage dans l’actualité ont besoin de multiples données. Parmi elles, peuvent se trouver des « données-œuvres » c’est-à-dire des données protégées par la propriété intellectuelle. Ce qui pose des questions liées à la rémunération des ayants droit et de transferts de valeur entre les fournisseurs d’IA et les industries culturelles.

La vraie disruption de l’IA tient au fait que de nombreux résultats générés par IA s’apparentent à des « quasi-œuvres » et concurrencent ainsi directement les créations humaines ayant servi à leur élaboration. Les opérateurs ont en effet besoin de recourir à de très larges catalogues d’œuvres pour produire leurs résultats.

Les effets d’éviction - le déplacement de certaines tâches du travail humain aux machines - sur la création humaine s’exercent d’abord par une concurrence par les prix, en ce que l’IA permet de créer des outputs plus vite et de manière moins coûteuse que des humains. Les effets d’éviction s’exercent également par les quantités. La surabondance d’une offre générée par l’utilisation des systèmes d’IA risque en effet d’impliquer une saturation du marché et par conséquent, une moindre découvrabilité des œuvres humaines par l’usager, c’est-à-dire « leur capacité à être repérées parmi un vaste ensemble d'autres contenus sans que la recherche ne porte précisément sur ce contenu ».

Quels sont les métiers des secteurs culturels les plus potentiellement exposés à des bouleversements techniques et économiques ?

Certains métiers se sentent d’ores et déjà particulièrement menacés (doubleurs, traducteurs, graphistes, journalistes …). Par ailleurs, de nombreux livres sont écrits via des système d’IA, comme témoigne le nombre important d’ebooks autopubliés sur des plateformes telles que Kindle, ou encore les morceaux de musiques générées par IA disponibles sur des sites comme Deezer ou Spotify.

Au-delà des restructurations attendues dans les industries culturelles, ce qui est intéressant c’est que le remplacement de la création humaine par l’IA pourrait conduire, à moyen ou long terme, à une contradiction interne aux modèles d’IA eux-mêmes, et à leur possible effondrement.

Que signifie la notion d’effondrement des modèles ?

Une fois qu’un modèle est entraîné sur des données humaines, réelles, il est possible de l’utiliser pour générer de nouvelles données, appelées « synthétiques ». Les données synthétiques sont conçues pour imiter les propriétés statistiques et structurelles des données réelles, tout en étant générées artificiellement. Dans le cas des IA génératives actuelles, il s’agit des données créées par le modèle entraîné initialement sur des données humaines, sur demande. De ce fait, on peut, en principe, entraîner un modèle uniquement sur des données synthétiques, ou en les combinant avec des données humaines.

L'impact de l'entraînement des modèles d’IA via des données synthétiques (plutôt que produites par des humains) sur la qualité des données générées par ces modèles, a fait l’objet de divers travaux. Ces derniers s’appuient sur des mesures de la qualité des résultats et identifient les sources d’erreurs qui peuvent être à l’origine de l’effondrement de la qualité des outputs d’un modèle affiné sur des données synthétiques.

L'effondrement peut être défini comme un process dégénératif affectant la qualité de ce que produisent les modèles, dans lesquels les données générées par une première génération de modèles polluent les données sur lesquelles la prochaine génération de modèles est entraînée. En d’autres termes, la qualité des nouvelles données s’effondre après que les modèles ont été entraînés sur des données synthétiques. Au fil des itérations, le modèle apprend de plus en plus de ses propres prédictions erronées, amplifiant les erreurs jusqu'à ce qu'il apprenne essentiellement sur la base d’informations incorrectes.

Le recours aux données synthétiques est un risque réel en raison de la raréfaction de données crées par des humains. En supposant que les taux actuels de consommation et de production de données se maintiennent, les données réelles vont tendre à manquer. En effet, des recherches menées par Epoch AI prédisent que « nous aurons épuisé le stock de données textuelles de faible qualité d'ici 2030 à 2050, des données textuelles de haute qualité avant 2026, et des données visuelles entre 2030 et 2060 ».

En réaction à ces risques, peut-on tirer des conclusions sur la nécessité de soutenir la création humainement produite et le secteur culturel en général ?

Dans les secteurs culturels, par analogie à la maladie de la « vache folle », on pourrait évoquer la maladie de « l’œuvre folle ». L’IA, en remplaçant la création culturelle humaine, pourrait conduire à ne créer que des « œuvres folles », synthétiques, qui finissent toutes par se ressembler ce qui, par nature, est étranger aux processus de disruption qui jalonnent toute l’histoire de l’activité artistique. De plus, ces œuvres humaines doivent elles – mêmes être diversifiées si l’on souhaite éviter la dégénérescence des modèles.

La production et l’accès à des données de qualité dans le cadre d’une infrastructure technique adaptée, et reflétant la diversité du monde réel, la diversité des langues, des cultures et des régions du globe apparait donc plus que jamais nécessaire pour alimenter le patrimoine culturel de l’humanité et le préserver.