Intervention de Alexandra Bensamoun

Réunion du mercredi 20 mars 2024 à 9h00
Commission des affaires culturelles et de l'éducation

Alexandra Bensamoun, professeure de droit privé à l'université Paris-Saclay :

Merci pour ces nombreuses questions. En tant que spécialiste de la propriété intellectuelle, je me concentrerai pour ma part sur celles qui portaient sur l'intelligence artificielle. Je pratique le droit du numérique à travers les questions relatives aux données à caractère personnel, l'intelligence artificielle, etc., depuis un certain nombre d'années. Je collabore avec des scientifiques sur ces sujets.

Vous avez certainement lu le rapport remis par la commission sur l'intelligence artificielle. J'étais considérée, au sein du collège d'experts, comme devant assurer la protection de la culture et des médias. Je reçois depuis quelques jours de nombreux remerciements du secteur de la culture, ce qui me touche particulièrement. Cette commission a siégé pendant les discussions sur l' Artificial Intelligence Act, lesquelles ont été tendues, notamment à propos de la propriété littéraire et artistique. Mon premier objectif a été de faire entendre la voix de la culture, considérant les IA génératives comme une nouvelle chaîne de valeur. Les IA génératives ont besoin d'un modèle de fondation. Elles sont directement issues de modèles de fondation. Elles sont entraînées à partir de données dont certaines peuvent être protégées par le droit d'auteur et les droits voisins du droit d'auteur. Il peut paraître étonnant que cette chaîne de valeur ait donné lieu à autant de discussions mais il a été très compliqué de faire adopter le principe de transparence au niveau européen, la raison étant que cela introduisait une charge supplémentaire et que certains s'opposaient à ce qu'ils considéraient comme une régulation trop forte. Pour ma part, j'ai soutenu l'idée qu'il n'était pas possible de créer un écosystème IA en supprimant une partie de la chaîne de valeur. Nous avons besoin de ces contenus culturels pour créer ce marché. Le principe de rémunération des contenus protégés par le droit d'auteur et les droits voisins a été rappelé très clairement dans notre rapport, de même que le principe de distinction et de valorisation du contenu humain par opposition au contenu synthétique ou artificiel. Quatre recommandations– plus une cinquième recommandation sur l'emploi – sur un total de vingt-cinq portent sur la culture alors qu'il s'agissait d'un rapport transverse sur l'IA à l'origine. Cela a été une gageure et je remercie d'ailleurs tous les membres de la commission sur l'intelligence artificielle d'avoir compris tout l'enjeu du secteur de la culture et tout l'intérêt à ne pas s'engager dans une voie qui donnerait lieu à de multiples procès comme on le voit aux États-Unis. Tous les secteurs y sont en procès à travers des class actions car les acteurs du numérique ont entraîné des systèmes d'intelligence artificielle sur des contenus protégés, dont ceux du New York Times, mais tous les autres secteurs ont réagi : producteurs de jeux vidéo, d'œuvre littéraires ou graphiques, etc. Les procédures dureront des années et coûteront des dizaines de millions de dollars. Évitons cela en créant un marché éthique, responsable, compétitif à l'échelle européenne, qui prenne en compte l'ensemble de la chaîne de valeur. Pour cela, protégeons notre point fort en France : la culture. Permettons aux industries culturelles et aux titulaires de droits d'être rémunérés pour l'utilisation de ces contenus.

Vous avez demandé si l' Artificial Intelligence Act était suffisamment garant de la protection de la culture. Initialement, il propose une régulation par les risques et pas du tout par la technologie. Plus le risque provoqué par l'usage de l'IA est considéré comme important et plus la régulation doit être stricte, avec le cas échéant une interdiction totale (comme par exemple pour le scoring social). Il est complètement proscrit d'introduire sur le marché un système d'IA de notation sociale.

L'apparition de ChatGPT à la fin de 2022 a été un événement important. Il a fallu un certain temps avant que l'on comprenne comment il fonctionne et comment il a été entraîné. C'est après plusieurs mois d'analyse de bases d'entraînement telles que BooksFree par des chercheurs américains que l'existence de contenus piratés au sein de ces bases a été mise en évidence. S'est alors posée la question du droit applicable : était-il possible d'utiliser ces contenus sans autorisation et sans rémunération ? La directive de 2019 sur les droits d'auteur et les droits voisins dans le marché unique numérique, à la transposition de laquelle j'ai travaillé à travers un rapport commandé par le ministère de la Culture, prévoit, en son article 4, une exception aux droits d'auteur et aux droits voisins en cas de fouille de textes et de données. Cet article 4 a été introduit par amendement en cours de discussion de manière assez subreptice alors que nous étions tous concentrés sur l'article 17 qui portait sur la rémunération des auteurs et sur les articles 18 et 23 sur les droits voisins des éditeurs de presse. On nous avait expliqué à l'époque que l'article 4 avait été introduit pour la recherche médicale. Cela nous a semblé malgré tout assez large. Des conditions ont été introduites pour pouvoir bénéficier de ce régime d'exception mais elles sont assez élémentaires : il s'agit d'un accès licite aux sources et de l'absence de droit d'opposition de la part du titulaire des droits. Cette exception est en revanche ouverte à l'ensemble des acteurs, quelle que soit la finalité de leurs travaux, et y compris pour une finalité commerciale. Dans mon rapport dans le cadre de la transposition de cette disposition en droit national, j'ai mis en exergue le fait que les titulaires de droits n'étaient guère mobilisés dans le cadre de cette exception car nous ignorons comment sont précisément créées les IA génératives.

Les premiers articles sur les IA génératives de la part des acteurs du numérique datent de 2017. Cette exception avait été déjà pensée très en amont, mais en France, et même en Europe, nous n'avions pas pleinement conscience de sa portée.

Courant 2023, les titulaires de droit ont commencé à s'émouvoir, s'estimant victimes d'une forme de pillage numérique. Les premières procédures ont été lancées aux États-Unis et les titulaires de droit ont commencé à exercer massivement leur droit d'opposition. La directive européenne prévoit que ce droit puisse s'exercer par des moyens lisibles par des machines mais comme cela a déjà été souligné, les métadonnées sont susceptibles d'être écrasées. Si la mise en ligne est effectuée par un tiers et non par le titulaire des droits, il n'y a aucune garantie que les métadonnées soient bien présentes et que son droit d'opposition puisse être appliqué. Dans notre rapport, nous proposons de travailler sur une standardisation du droit d'opposition. Cela m'apparaît fondamental.

Une fois que les auteurs exercent leur droit d'opposition, comment peuvent-ils ensuite faire valoir leurs droits dans l'ignorance de l'utilisation effective de leurs contenus par des modèles de fondation ? C'est alors qu'a émergé une discussion sur la transparence des sources. L' Artificial Intelligence Act a alors changé de physionomie : il ne s'agissait plus seulement de réguler les risques mais aussi d'encadrer la technologie des IA génératives. Ce texte introduit alors le concept de modèle d'intelligence artificielle à usage général ( General - Purpose AI ou GPAI,). Un régime spécifique a été introduit pour ces GPAI, qui dépend de différents critères : le modèle a-t-il besoin, pour fonctionner, d'une puissance de calcul supérieure à 1025 flops ( floating point operation per second, ou nombre d'opérations en virgules flottantes par seconde) ? s'agit-il d'un modèle en open source ou non ?

La question du respect du droit d'auteur et des droits voisins s'est continuellement posée lors de l'élaboration de ces critères. Il a été considéré par certains que le respect de ces droits était facultatif pour des modèles en open source. Pourquoi après tout ? Il s'agit bien d'acteurs privés qui réalisent des profits et il n'y a donc pas de raison de les exempter, tout au plus de leur octroyer des réductions tarifaires. Après d'âpres discussions, le respect du droit d'auteur et des droits voisins a été exigé pour tous les acteurs, avec une obligation de mettre en œuvre une politique interne pour garantir le respect de ces droits et une obligation de déclarer les sources. Je pense qu'un marché compétitif des IA génératives doit impérativement être éthique. Une forme de rémunération des contenus culturels doit être trouvée.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion