Le règlement sur l’IA classe les systèmes d’IA en quatre catégories selon leur niveau de risque :
- Systèmes à risque inacceptable : Les systèmes d’IA qui représentent une menace évidente pour la sécurité et les droits des personnes sont interdits. Cela inclut les systèmes qui utilisent des techniques subliminales ou exploitent les vulnérabilités de groupes spécifiques, ainsi que les systèmes de notation sociale mis en place par les gouvernements.
- Systèmes à haut risque : Les systèmes d’IA ayant un impact significatif sur les droits ou la sécurité des personnes sont soumis à des exigences strictes. L’on trouve par exemple les systèmes d’identification biométrique, la gestion des infrastructures critiques et les applications d’IA dans le domaine des soins de santé.
- Systèmes à risque limité : Les systèmes d’IA à risque limité sont soumis à des obligations de transparence spécifiques, comme celle d’informer les utilisateurs qu’ils interagissent avec un système d’IA. Cette catégorie inclut les chatbots et l’IA pour les services client.
- Systèmes à risque minimal : Les systèmes d’IA à risque minimal, voire nul, sont largement exemptés de réglementation. Cette catégorie inclut la plupart des applications de l’IA, telles que les filtres anti-spam et les jeux pilotés par IA.