AI Act : nos 4 recommandations aux Etats membres
Numeum et 28 autres organisations nationalessoutiennent les objectifs du AI Actet se concentrent sur les cas d’utilisation à haut risque. L’IA sera le moteur de l’innovation dans les années à venir. Des estimations prévoientqu’en 2035, la moitié de la croissance de nombreux pays européens pourrait être due à l’IA.Pour tirer pleinement parti de l’IA, nous devons nous attacher à créer une Europe où les entreprises innovantes peuvent prospérer.
Pour garantir l’adoption de l’IA, la confiance dans la technologie est essentielle : le AI Act a un rôle à jouer pour aider les entreprises à mettre sur le marché des solutions d’IAde confiance. Le AI Act est une proposition législative complexe, qui crée un nouveau cadre à l’intersection de la conformité traditionnelle des produits TICet de la protection des droits fondamentaux. La mise en œuvre sera difficile :entreprises et les autorités de surveillance du marché navigueront en terrain inconnu. Certaines estimations montrent que, pour une PME de 50 employés, la mise sur le marché d’un seul produit doté de l’intelligence artificielle pourrait entraîner des coûts de mise en conformité dépassant largement les 300 000 euros.
Les travaux entrepris par le Conseil de l’UE sous les présidences slovène, française et tchèque ont contribué à accroître la sécurité juridique pour les entreprises. Toutefois, quelques défis subsistent.
Alors que les États membres ont adoptéleur approche générale, nous encourageons le Conseil, dans le cadre des prochaines négociations du trilogue, à prendre en considération les points suivants :
-
Les bacs à sable réglementaires sont essentiels pour garantir des obligations proportionnées et une mise en œuvre harmonieuse. Nous recommandons la mise en place de bacs à sable avant la réglementation pour tester les effets de la loi sur les entreprises et après la réglementation pour les aider à se préparer à la conformité. Les États membres doivent s’engager à mettre en place de tels bacs à sable.
-
Il est essentiel de veiller à bien répartir lesresponsabilités aux bons acteurs de la chaîne de valeur de l’IA. La directive sur la responsabilité en matière d’IA (AI Liability Directive) s’appuiera sur l’attribution des obligations prévues par le AI Act. Ce dernier doit être affinée, notamment en tenant compte des récents développements en matière d’IA à usage général. Le AI Act devrait, le cas échéant, offrir une flexibilité supplémentaire en garantissant la liberté des parties de répartir les responsabilités par le biais d’obligations contractuelles.
-
Il convient d’assurer une cohérence entre les différents textes législatifs. Le AI Acta toujours ce risqued’entrer en conflit avec la législation existante (ex: règlements sur les machines ou les dispositifs médicaux). Garantir l’alignement et éviter la duplication des obligationssimplifieraitla mise en conformité dans de nombreux secteurs où l’Europe est aujourd’hui leader et doit rester compétitive.
-
Enfin, les autorités nationales doivent coopérer pour éviter une mise en œuvre fragmentée. Un cadre d’application aussi complexe avec de nombreuses autorités différentes entraînera un chevauchement des compétences. La désignation d’un point de contact central par État membre et d’un mécanisme de coordination européen fort sous l’égide du AI Board (prévu par la Commission européenne)garantiront une application et une mise en œuvre cohérentes.