Économie numérique
La Loi européenne sur l'intelligence artificielle
Les Analyses du cep
Le Centrum für Europäische Politik (cep) a examiné le projet de loi de Bruxelles. Le groupe de réflexion fribourgeois évalue les propositions de manière largement positive et les considère comme historiquement uniques en comparaison avec le reste du monde. "Les prescriptions particulièrement strictes pour les systèmes d'IA à haut risque sont justes et importantes, car ces systèmes représentent un plus grand danger. De plus, les obligations de transparence liées aux risques augmentent l'acceptation au sein de la population", explique Matthias Kullas, économiste au cep, qui a rédigé l'étude avec Lukas Harta, juriste au cep.
M. Kullas et L. Harta voient d'un œil critique les faibles exigences imposées aux systèmes d'IA qui catégorisent les personnes en fonction de l'âge, de l'origine ethnique, de l'orientation religieuse ou sexuelle. "Ces systèmes d'IA doivent être soumis à des exigences plus strictes qu'une simple obligation d'information", soulignent les chercheurs fribourgeois. En outre, le règlement ne va pas assez loin dans la protection des données.
M. Kullas et L. Harta demandent à l'UE d'interdire ce que l'on appelle le social scoring non seulement aux autorités, mais aussi aux prestataires privés. En Chine, des systèmes d'IA récompensent déjà les citoyens particulièrement fidèles à la ligne en leur attribuant des points, tandis que d'autres sont empêchés d'obtenir des crédits avantageux, de participer à des manifestations culturelles ou de s'élever socialement par la déduction de points.
PDF à télécharger
La Loi européenne sur l'intelligence artificielle (publié 14.12.2021) | 253 KB | Download | |
|