Ces dernières années, l'utilisation de l'intelligence artificielle a suscité des inquiétudes croissantes, notamment en ce qui concerne les abus potentiels liés aux systèmes de surveillance sociale, tels que ceux déjà mis en place dans des pays comme la Chine. Dans ces contextes, la technologie est souvent utilisée pour surveiller et contrôler la vie quotidienne des citoyens, portant atteinte à leur liberté et à leur vie privée. Afin de contrer ces risques, l'Europe s'est engagée dans un parcours législatif avec la loi sur l'IA, une législation qui vise non seulement à réguler l'utilisation de l'intelligence artificielle, mais aussi à contrer les formes invasives de surveillance et à protéger les droits fondamentaux des citoyens. La loi sur l'IA vise en effet à garantir l'utilisation éthique de l'intelligence artificielle, en promouvant un modèle d’«IA de confiance» qui respecte les principes de transparence, d’équité et de non-discrimination.
Le chemin vers l'approbation de cette loi a commencé en 2018, lorsque la Commission européenne a mis en place un groupe d'experts sur l'intelligence artificielle ; ce groupe a rédigé des lignes directrices éthiques pour l'IA en Europe, identifiant le concept d'«IA de confiance» comme le seul modèle acceptable dans les pays membres.
Par la suite, le projet de règlement a été présenté par la Commission européenne le 21 avril 2021, dans l'intention de créer un cadre réglementaire harmonisé et proportionné pour l'intelligence artificielle au sein de l'Union européenne.
La loi sur l'IA repose sur le principe que l'intelligence artificielle doit être développée et déployée de manière à garantir la sécurité, les normes éthiques et le respect des droits fondamentaux et des valeurs européennes. Pour y parvenir, la proposition établit un système de classification des technologies de l'IA en fonction de leurs risques potentiels pour la sécurité et les droits des individus. Elle définit également un ensemble d'exigences et d'obligations pour les fournisseurs et les utilisateurs de ces systèmes. Le cadre réglementaire de la loi sur l'IA inclut également une classification des systèmes d'IA en fonction du niveau de risque qu'ils présentent pour les individus et la société. Cette classification distingue quatre niveaux de risque : inacceptable, élevé, limité et minimal/aucun risque.
– Risque inacceptable: Cela inclut les systèmes d'IA qui violent les valeurs fondamentales de l'Union européenne, telles que le respect de la dignité humaine, la démocratie et l'État de droit. Ces systèmes sont généralement interdits ou, dans des cas spécifiques, comme la surveillance biométrique en temps réel à des fins de sécurité, ils sont soumis à des restrictions strictes. Parmi les exemples de systèmes interdits, on trouve les technologies qui manipulent le comportement humain au point de compromettre l'autonomie des utilisateurs, ou les systèmes qui permettent le «social scoring» l par les autorités publiques, comme cela se passe en Chine.
– Risque élevé: Cela inclut les systèmes d'IA qui peuvent avoir un impact significatif ou systémique sur les droits fondamentaux ou la sécurité des individus. En conséquence, ces systèmes sont soumis à des exigences strictes et doivent répondre à des obligations rigoureuses avant d'être mis sur le marché ou utilisés. Parmi les exemples de ces systèmes figurent les technologies utilisées dans les processus de recrutement et de sélection, l'admission à l'éducation, la fourniture de services sociaux essentiels tels que les soins de santé, la surveillance biométrique à distance, ainsi que les applications dans les secteurs judiciaire ou de l'application de la loi. Les systèmes utilisés pour assurer la sécurité des infrastructures critiques sont également inclus dans cette catégorie.
– Risque limité: Cela inclut les systèmes d'IA qui peuvent influencer les droits ou les choix des utilisateurs, mais dans une moindre mesure par rapport aux systèmes à risque élevé. Afin d'assurer une utilisation éclairée, ces systèmes sont soumis à des exigences de transparence qui permettent aux utilisateurs de savoir quand ils interagissent avec un système d'IA et de comprendre son fonctionnement, ses caractéristiques et ses limitations potentielles. Parmi les exemples de cette catégorie, on trouve les technologies utilisées pour générer ou manipuler du contenu audiovisuel, comme les «deepfakes», ou pour fournir des recommandations personnalisées, par exemple à travers des «chatbots».
- Risque minimal ou nul: Cela inclut les systèmes d'IA qui n'affectent pas directement les droits fondamentaux ou la sécurité des individus, garantissant aux utilisateurs une liberté totale de choix et de contrôle. Afin de favoriser l'innovation et l'exploration technologique, ces systèmes ne sont soumis à aucune obligation réglementaire. Parmi les exemples courants, on trouve les applications à des fins de divertissement, comme les jeux vidéo, ou celles ayant des objectifs esthétiques, comme les filtres photo, qui n'ont pas d'implications significatives pour la société ou les droits individuels.
La loi sur l'IA vise à garantir la sécurité et l'éthique dans l'utilisation de l'intelligence artificielle, tout en protégeant les droits des individus et des organisations. Les principales mesures comprennent :
• Des exigences pour les systèmes d'IA à haut risque afin de protéger les droits fondamentaux tels que la vie privée, la dignité et la non-discrimination.
• Une surveillance humaine pour suivre et corriger les systèmes d'IA, afin de prévenir tout préjudice aux individus ou à l'environnement.
• L'interdiction des systèmes d'IA qui violent les valeurs de l'UE, comme ceux qui manipulent le comportement ou exploitent les vulnérabilités.
• La mise en place d'un cadre de gouvernance impliquant toutes les parties prenantes, avec des mesures de coopération, de surveillance et des sanctions.
• La promotion d'une culture de l'IA responsable, encourageant la transparence, la responsabilité et l'éducation pour renforcer la confiance du public.
Ainsi, la loi sur l'IA vise à réguler les domaines où des risques apparaissent, en se concentrant davantage sur les usages de l'intelligence artificielle que sur la technologie elle-même. En définissant des réglementations régissant l'impact de la technologie sur la vie des gens, il est crucial de poursuivre au moins quatre objectifs, en les équilibrant soigneusement : encourager l'innovation technologique, garantir la protection des droits des citoyens, assurer la faisabilité des exigences imposées et rendre la loi durable dans le temps. Cet aspect, connu sous le nom de « prévoyance pour l'avenir » (future proofness), implique la nécessité de créer des réglementations qui restent valides et applicables même dans un contexte technologique en constante évolution.
SOURCES:
– https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence
– https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai