Retour sur le troisième texte du code de bonnes pratiques pour l’IA en Europe
cepAdhoc

Économie numérique

Retour sur le troisième texte du code de bonnes pratiques pour l’IA en Europe

Dr. Anselm Küsters, LL.M.
Dr. Anselm Küsters, LL.M.

Le projet de code de bonnes pratiques européen sur l'intelligence artificielle (IA) est en péril. Sous la pression de grands groupes technologiques américains, ce texte risque de devenir un document sans portée réelle, qui ne ferait qu’entériner les pratiques actuelles.  Le Centre de Politique Européenne (cep) alerte : « L’UE passerait à côté d’une occasion historique d’instaurer, à l’échelle mondiale, des standards en matière de sécurité, de responsabilité et de concurrence équitable dans le domaine de l’IA. »

cepAdhoc

Le troisième projet de « General Purpose AI Code of Practice » prévoit bien un encadrement des principaux fournisseurs d’IA. Mais des zones d’ombre subsistent, notamment sur la responsabilité et le rôle des contrôles externes. « Les règles proposées risquent surtout d’exposer les start-ups et les petites entreprises à des risques imprévisibles. Il n'est pas clair à quel moment une entreprise devient pleinement responsable lorsqu’elle procède à un réglage fin d’un modèle d'IA existant », explique Anselm Küsters, expert numérique du cep, qui a rédigé l'analyse et l'a soumise à la Commission européenne dans le cadre du processus multipartite. « Il est urgent de fixer des seuils clairs à partir desquels une entreprise est considérée comme un fournisseur d'IA à part entière. »

Le cep met en garde contre les affaiblissements du texte. La classification des risques a été allégée et les contrôles externes fortement restreints. « Ces lacunes nuisent l’équité entre les acteurs : les géants du secteur peuvent plus facilement mettre en place des contrôles internes », prévient Küsters. Par ailleurs, la suppression des dispositions spécifiques pour protéger des lanceurs d'alerte est inquiétante : elle pourrait empêcher que des informations cruciales sur les risques liés à l'IA ne soient pas révélées à temps. Meme constat sur l’abandon des réévaluations régulières des systèmes d'IA : à l’avenir, les audits ne seraient menés qu'en cas de besoin. Une approche risquée selon Küsters : « L’IA évolue à une vitesse exponentielle et les risques peuvent émerger soudainement - des contrôles réguliers sont donc indispensables. »

Le cep appelle à des améliorations significatives. Le code ne doit pas se contenter de refléter le statu quo. « Le projet actuel se limite à codifier les pratiques courantes des grandes entreprises tech américaines. Cela ne suffit pas pour protéger les droits fondamentaux de manière proactive et pour anticiper les menaces à venir », avertit Küsters. « Le code de bonnes pratiques en matière d’IA doit stimuler l’innovation, protéger les petites entreprises et établir des normes claires - au lieu de simplement valider les structures de marché actuelles. »

PDF à télécharger

Retour sur le troisième texte du code de bonnes pratiques pour l’IA en Europe (publié 31.03.2025) PDF 342 KB Download
Retour sur le troisième texte du code de bonnes pratiques pour l’IA en Europe