Proposition de loi IA et droit d’auteur : un débat nécessaire, une solution inadéquate
Proposition de loi relative à l’instauration d’une présomption d’exploitation des contenus culturels par les fournisseurs d’IA
Contexte
La protection du droit d’auteur est une composante essentielle du droit de la propriété intellectuelle et un pilier de notre modèle de création. Le développement rapide de l’intelligence artificielle, en particulier l’IA générative, a soulevé d’importants débats concernant l’utilisation de contenus protégés à des fins d’entraînement. Notre objectif collectif doit être de garantir l’effectivité des droits de propriété intellectuelle tout en permettant le développement et le déploiement de l’intelligence artificielle sur notre sol, clés pour renforcer la compétitivité de notre économie.
À cet égard, l’Europe s’est dotée d’un cadre juridique européen structuré et cohérent encadrant l’utilisation de contenus protégés à des fins d’entraînement des systèmes d’intelligence artificielle. En effet, la directive « droit d’auteur dans le marché unique numérique » (DAMUN) prévoit explicitement des exceptions pour la fouille de texte et de données (text and data mining), assorties d’un droit d’opposition (opt-out) au bénéfice des ayants droit. Par ailleurs, le règlement sur l’intelligence artificielle (AI Act) confirme ces exceptions et instaure un régime de transparence spécifique pour les modèles d’IA à usage général, notamment sur les données utilisées pour l’entraînement, pour faciliter l’exercice par les titulaires de droits de propriété intellectuelle de leurs droits.
La proposition de loi relative à l’instauration d’une présomption d’exploitation des contenus culturels par les fournisseurs d’IA, vise à introduire un nouveau dispositif juridique en droit national qui, tel que rédigé, présente d’importantes difficultés, tant en matière juridique que sur le plan économique et technique.
La proposition de loi prévoit d’instaurer une présomption d’exploitation de contenus protégés, dès lors qu’il existe un indice rendant vraisemblable leur utilisation par un fournisseur d’IA, faisant ainsi peser sur ce dernier la charge de démontrer l’absence d’exploitation. Ce mécanisme, applicable à l’ensemble des acteurs concernés par le développement et le déploiement des systèmes d’IA, présente d’importantes difficultés exposées ci-après.
Un dispositif incertain et source d’insécurité juridique
La proposition de loi introduit une présomption fondée sur l’existence d’un “indice […] rendant vraisemblable” l’exploitation de contenus protégés. Cette présomption apparaît juridiquement large et imprécise. Elle ouvre la voie à des contentieux fondés non pas sur les données d’entraînement, mais sur des éléments indirects, tels que :
- des résultats générés par les modèles
- des similarités statistiques ou stylistiques
- des prompts ou usages utilisateurs
Par ailleurs, la notion d’« indice » constitue un critère extrêmement large et peu robuste juridiquement. En pratique, un simple rapprochement stylistique ou thématique pourrait être invoqué comme « indice » d’exploitation, sans démontrer l’utilisation d’une œuvre donnée ni l’existence d’un acte de contrefaçon. Un tel standard probatoire introduit une insécurité juridique majeure pour les acteurs de l’IA, en les exposant à des actions reposant sur des inférences plutôt que sur des faits établis.
Constitutionnalité incertaine du dispositif
En l’état, le texte instaure un renversement de la charge de la preuve, faisant peser sur les acteurs de l’IA une obligation de démontrer l’absence d’exploitation de contenus protégés. Un tel mécanisme apparaît disproportionné au regard des réalités opérationnelles de l’entraînement des modèles. En effet, il est techniquement très difficile, voire impossible, de démontrer a posteriori qu’un contenu spécifique n’a pas été utilisé, en particulier pour des modèles entraînés sur des corpus massifs et hétérogènes de données, et ce alors qu’il n’existe aucun registre centralisé permettant d’établir les preuves protégées par le droit d’auteur. Cela revient, en pratique, à exiger la preuve d’un fait négatif. Sur le plan pratique, comment en cas de contentieux, présenter à une juridiction saisie l’ensemble des données ayant servi à l’entraînement d’un modèle pour démontrer ce fait négatif ?
Sur le plan juridique, ce renversement de la charge de la preuve soulève de réelles interrogations en matière de constitutionnalité. En effet, la contrefaçon constitue un délit pénal passible de sanctions et en cette matière, la jurisprudence du Conseil constitutionnel et de la Cour européenne des Droits de l’Homme n’admet des présomptions de culpabilité que si elles sont réfragables. Or, compte-tenu de son caractère large et peu réalisable sur le plan pratique, la présomption introduite par la proposition de loi apparait difficilement réfragable. En particulier, il convient s’agissant de cette proposition de loi de tenir compte de la jurisprudence du Conseil constitutionnel concernant la loi Hadopi 2, qui prévoyait une présomption de culpabilité en matière de contrefaçon sur internet, et qui a été partiellement censurée.1
Nécessaire intégration avec le droit européen
L’approche poursuivie par le texte s’inscrit en contradiction avec la logique européenne d’harmonisation, en introduisant une règle nationale dérogatoire susceptible de fragmenter le marché intérieur et de générer des régimes de responsabilité divergents selon les États membres. Compte tenu du caractère transfrontalier des usages numériques, toute modification du droit de la propriété intellectuelle vis-à-vis de l’intelligence artificielle doit intervenir en priorité au niveau européen, toute initiative nationale risquant de fragmenter davantage le marché européen et les règles de protection de la création. De surcroit, des travaux sont actuellement menés sur cette thématique tant par la Commission européenne que par le Parlement européen.
Conformément à la directive (UE) 2015/1535 dite « directive TRIS », les États membres sont tenus de notifier à la Commission européenne tout projet de réglementation technique, spécifiquement les règles visant les services de la société de l’information. Cette catégorie inclut nécessairement les fournisseurs de services d’intelligence artificielle, dont l’activité repose sur la fourniture de services numériques.
Le mécanisme de présomption instauré par la proposition de loi, dès lors qu’il est applicable exclusivement ou principalement aux fournisseurs d’IA, ne peut être regardé comme une simple règle de preuve neutre et générale. Elle semble au contraire constituer une contrainte réglementaire sectorielle, encadrant les conditions dans lesquelles ces services peuvent fonctionner et déterminant les situations dans lesquelles leur responsabilité peut être engagée. En ciblant spécifiquement une catégorie d’opérateurs économiques, le dispositif est susceptible de relever du champ de la directive TRIS et, à ce titre, de devoir faire l’objet d’un examen préalable au niveau de l’Union européenne. Dès lors, le risque d’une non-conformité au droit de l’Union est élevé.
Un obstacle à la diffusion de l’IA dans l’économie
Le champ d’application du texte apparait particulièrement large : il ne se limite pas aux seuls fournisseurs de modèles, et n’exclut ni les développeurs ni les acteurs du déploiement de l’IA (notamment les nombreux acteurs réalisant des opérations de fine-tuning consistant à spécialiser un modèle pré-entraîné).
Cette rédaction conduit à un élargissement considérable du nombre d’acteurs concernés, y compris des PME, startups, intégrateurs et utilisateurs industriels. Cela crée un climat d’incertitude juridique généralisée sur l’ensemble de la chaîne de valeur de l’IA et risque de dissuader des investissements en France ou d’inciter à la localisation hors de France de certaines activités.
Au-delà du frein au développement des modèles, cette insécurité risque de freiner fortement le déploiement de l’IA en France, alors même que les indicateurs (DESI, rapport Draghi) soulignent déjà un retard structurel de l’Europe en matière d’adoption de l’IA. La proposition de loi, telle que rédigée, pourrait ainsi entraver le renforcement de la compétitivité de notre économie qui repose notamment sur l’adoption et la diffusion massive des technologies numériques.
Par ailleurs, le dispositif comporte un risque d’assèchement des données disponibles pour l’entraînement en France, incitant les acteurs à localiser leurs activités hors de France ou à renoncer à certains usages. In fine, c’est la diffusion de l’IA dans l’économie réelle qui serait ainsi remise en cause.
Conclusion
La protection de la création et des droits de propriété intellectuelle est un impératif. Néanmoins, la proposition de loi, telle qu’envisagée, repose sur un mécanisme de présomption générale et de renversement de la charge de la preuve qui soulève de sérieux risques juridiques, techniques et économiques. En l’absence de cadre technique stabilisé, cette approche créerait une forte insécurité juridique pour l’ensemble de l’écosystème de l’IA et pour tous les acteurs économiques envisagent une adoption de cette technologie. Par ailleurs, le texte s’écarte de la logique d’harmonisation européenne, au risque de fragmenter le marché intérieur, et pourrait relever du champ de la notification « TRIS », exposant le dispositif à un risque de non-conformité au droit de l’Union.
Numeum appelle ainsi à privilégier une réponse européenne, concertée et techniquement réaliste, plutôt qu’une présomption nationale générale susceptible de freiner l’innovation, le déploiement de l’IA et la compétitivité de la filière française.