La proposition de loi sur l'IA sera la première législation de ce type au monde. L'avenir technologique de l'Europe est en jeu - c'est une occasion à ne pas manquer.

Numeum et 28 autres organisations nationales soutiennent les objectifs du AI Act et se concentrent sur les cas d'utilisation à haut risque. L'IA sera le moteur de l'innovation dans les années à venir. Des estimations prévoient qu'en 2035, la moitié de la croissance de nombreux pays européens pourrait être due à l'IA. Pour tirer pleinement parti de l'IA, nous devons nous attacher à créer une Europe où les entreprises innovantes peuvent prospérer.

Pour garantir l'adoption de l'IA, la confiance dans la technologie est essentielle : le AI Act a un rôle à jouer pour aider les entreprises à mettre sur le marché des solutions d'IA de confiance. Le AI Act est une proposition législative complexe, qui crée un nouveau cadre à l'intersection de la conformité traditionnelle des produits TIC et de la protection des droits fondamentaux. La mise en œuvre sera difficile : entreprises et les autorités de surveillance du marché navigueront en terrain inconnu. Certaines estimations montrent que, pour une PME de 50 employés, la mise sur le marché d'un seul produit doté de l'intelligence artificielle pourrait entraîner des coûts de mise en conformité dépassant largement les 300 000 euros. 

Les travaux entrepris par le Conseil de l'UE sous les présidences slovène, française et tchèque ont contribué à accroître la sécurité juridique pour les entreprises. Toutefois, quelques défis subsistent.

Alors que les États membres ont adopté leur approche générale, nous encourageons le Conseil, dans le cadre des prochaines négociations du trilogue, à prendre en considération les points suivants :

  • Les bacs à sable réglementaires sont essentiels pour garantir des obligations proportionnées et une mise en œuvre harmonieuse. Nous recommandons la mise en place de bacs à sable avant la réglementation pour tester les effets de la loi sur les entreprises et après la réglementation pour les aider à se préparer à la conformité. Les États membres doivent s'engager à mettre en place de tels bacs à sable.

  • Il est essentiel de veiller à bien répartir les responsabilités aux bons acteurs de la chaîne de valeur de l'IA. La directive sur la responsabilité en matière d'IA (AI Liability Directive) s'appuiera sur l'attribution des obligations prévues par le AI Act. Ce dernier doit être affinée, notamment en tenant compte des récents développements en matière d'IA à usage général. Le AI Act devrait, le cas échéant, offrir une flexibilité supplémentaire en garantissant la liberté des parties de répartir les responsabilités par le biais d'obligations contractuelles.

  • Il convient d’assurer une cohérence entre les différents textes législatifs. Le AI Act a toujours ce risque d'entrer en conflit avec la législation existante (ex: règlements sur les machines ou les dispositifs médicaux). Garantir l'alignement et éviter la duplication des obligations simplifierait la mise en conformité dans de nombreux secteurs où l'Europe est aujourd'hui leader et doit rester compétitive.

  • Enfin, les autorités nationales doivent coopérer pour éviter une mise en œuvre fragmentée. Un cadre d'application aussi complexe avec de nombreuses autorités différentes entraînera un chevauchement des compétences. La désignation d'un point de contact central par État membre et d'un mécanisme de coordination européen fort sous l'égide du AI Board (prévu par la Commission européenne) garantiront une application et une mise en œuvre cohérentes.