Définition et utilisation des systèmes d’intelligence artificielle à haut risque

Image : © GettyImages
La Commission européenne a lancé une consultation publique sur la mise en œuvre des dispositions relatives aux systèmes d'IA définis comme étant à haut risque dans la législation sur l'intelligence artificielle.
Cette consultation vise à recueillir les avis des acteurs concernés par l’IA à haut risque pour clarifier sa définition, son développement et son utilisation. Les contributions alimenteront les prochaines lignes directrices de la Commission sur la classification des systèmes d'IA à haut risque, ainsi que sur les exigences et obligations qui en découlent. Elles permettront également de recueillir des informations sur les responsabilités tout au long de la chaîne de valeur de l'IA.
La loi sur l'IA identifie deux types de systèmes d'IA « à haut risque » : (1) les systèmes importants pour la sécurité des produits en vertu de la législation harmonisée de l'Union ; et (2) les systèmes pouvant affecter de manière significative la santé, la sécurité ou les droits fondamentaux des personnes dans des cas d’usage spécifiques définis par la loi sur l'IA. Ils sont soumis à des obligations strictes avant de pouvoir être déployés sur le marché.
► Les parties prenantes (fournisseurs et développeurs de systèmes d'IA à haut risque, entreprises et autorités publiques utilisant ces systèmes, universités, instituts de recherche, organisations de la société civile, autorités de contrôle et citoyens) sont invitées à transmettre leurs contributions avant le 18 juillet 2025.
Plus d’informations :