
{"id":6239,"date":"2025-02-21T09:12:27","date_gmt":"2025-02-21T09:12:27","guid":{"rendered":"https:\/\/assedel.org\/?p=6239"},"modified":"2025-09-04T09:06:13","modified_gmt":"2025-09-04T09:06:13","slug":"ai-act-a-front-to-counter-the-mass-surveillance-inspired-by-the-chinese-model","status":"publish","type":"post","link":"https:\/\/assedel.org\/fr\/ai-act-a-front-to-counter-the-mass-surveillance-inspired-by-the-chinese-model\/","title":{"rendered":"\"Loi sur l'IA : un front de contre attaque \u00e0 la surveillance de masse tir\u00e9e du mod\u00e8le chinois\""},"content":{"rendered":"<p>Ces derni\u00e8res ann\u00e9es, l'utilisation de l'intelligence artificielle a suscit\u00e9 des inqui\u00e9tudes croissantes, notamment en ce qui concerne les abus potentiels li\u00e9s aux syst\u00e8mes de surveillance sociale, tels que ceux d\u00e9j\u00e0 mis en place dans des pays comme la Chine.\nDans ces contextes, la technologie est souvent utilis\u00e9e pour surveiller et contr\u00f4ler la vie quotidienne des citoyens, portant atteinte \u00e0 leur libert\u00e9 et \u00e0 leur vie priv\u00e9e.\nAfin de contrer ces risques, l'Europe s'est engag\u00e9e dans un parcours l\u00e9gislatif avec la loi sur l'IA, une l\u00e9gislation qui vise non seulement \u00e0 r\u00e9guler l'utilisation de l'intelligence artificielle, mais aussi \u00e0 contrer les formes invasives de surveillance et \u00e0 prot\u00e9ger les droits fondamentaux des citoyens.\nLa loi sur l'IA vise en effet \u00e0 garantir l'utilisation \u00e9thique de l'intelligence artificielle, en promouvant un mod\u00e8le d\u2019\u00abIA de confiance\u00bb qui respecte les principes de transparence, d\u2019\u00e9quit\u00e9 et de non-discrimination.<\/p>\n\n\n\n<p>Le chemin vers l'approbation de cette loi a commenc\u00e9 en 2018, lorsque la Commission europ\u00e9enne a mis en place un groupe d'experts sur l'intelligence artificielle ; ce groupe a r\u00e9dig\u00e9 des lignes directrices \u00e9thiques pour l'IA en Europe, identifiant le concept d'\u00abIA de confiance\u00bb comme le seul mod\u00e8le acceptable dans les pays membres.<br>Par la suite, le projet de r\u00e8glement a \u00e9t\u00e9 pr\u00e9sent\u00e9 par la Commission europ\u00e9enne le 21 avril 2021, dans l'intention de cr\u00e9er un cadre r\u00e9glementaire harmonis\u00e9 et proportionn\u00e9 pour l'intelligence artificielle au sein de l'Union europ\u00e9enne.<\/p>\n\n\n\n<p>La loi sur l'IA repose sur le principe que l'intelligence artificielle doit \u00eatre d\u00e9velopp\u00e9e et d\u00e9ploy\u00e9e de mani\u00e8re \u00e0 garantir la s\u00e9curit\u00e9, les normes \u00e9thiques et le respect des droits fondamentaux et des valeurs europ\u00e9ennes.\nPour y parvenir, la proposition \u00e9tablit un syst\u00e8me de classification des technologies de l'IA en fonction de leurs risques potentiels pour la s\u00e9curit\u00e9 et les droits des individus. Elle d\u00e9finit \u00e9galement un ensemble d'exigences et d'obligations pour les fournisseurs et les utilisateurs de ces syst\u00e8mes.\nLe cadre r\u00e9glementaire de la loi sur l'IA inclut \u00e9galement une classification des syst\u00e8mes d'IA en fonction du niveau de risque qu'ils pr\u00e9sentent pour les individus et la soci\u00e9t\u00e9.\nCette classification distingue quatre niveaux de risque : inacceptable, \u00e9lev\u00e9, limit\u00e9 et minimal\/aucun risque.<\/p>\n\n\n\n<p>&#8211; <strong>Risque inacceptable<\/strong>: Cela inclut les syst\u00e8mes d'IA qui violent les valeurs fondamentales de l'Union europ\u00e9enne, telles que le respect de la dignit\u00e9 humaine, la d\u00e9mocratie et l'\u00c9tat de droit. Ces syst\u00e8mes sont g\u00e9n\u00e9ralement interdits ou, dans des cas sp\u00e9cifiques, comme la surveillance biom\u00e9trique en temps r\u00e9el \u00e0 des fins de s\u00e9curit\u00e9, ils sont soumis \u00e0 des restrictions strictes. Parmi les exemples de syst\u00e8mes interdits, on trouve les technologies qui manipulent le comportement humain au point de compromettre l'autonomie des utilisateurs, ou les syst\u00e8mes qui permettent le \u00absocial scoring\u00bb l par les autorit\u00e9s publiques, comme cela se passe en Chine.<\/p>\n\n\n\n<p>&#8211; <strong>Risque \u00e9lev\u00e9<\/strong>: Cela inclut les syst\u00e8mes d'IA qui peuvent avoir un impact significatif ou syst\u00e9mique sur les droits fondamentaux ou la s\u00e9curit\u00e9 des individus. En cons\u00e9quence, ces syst\u00e8mes sont soumis \u00e0 des exigences strictes et doivent r\u00e9pondre \u00e0 des obligations rigoureuses avant d'\u00eatre mis sur le march\u00e9 ou utilis\u00e9s. Parmi les exemples de ces syst\u00e8mes figurent les technologies utilis\u00e9es dans les processus de recrutement et de s\u00e9lection, l'admission \u00e0 l'\u00e9ducation, la fourniture de services sociaux essentiels tels que les soins de sant\u00e9, la surveillance biom\u00e9trique \u00e0 distance, ainsi que les applications dans les secteurs judiciaire ou de l'application de la loi. Les syst\u00e8mes utilis\u00e9s pour assurer la s\u00e9curit\u00e9 des infrastructures critiques sont \u00e9galement inclus dans cette cat\u00e9gorie.<\/p>\n\n\n\n<p>&#8211; <strong>Risque limit\u00e9<\/strong>: Cela inclut les syst\u00e8mes d'IA qui peuvent influencer les droits ou les choix des utilisateurs, mais dans une moindre mesure par rapport aux syst\u00e8mes \u00e0 risque \u00e9lev\u00e9. Afin d'assurer une utilisation \u00e9clair\u00e9e, ces syst\u00e8mes sont soumis \u00e0 des exigences de transparence qui permettent aux utilisateurs de savoir quand ils interagissent avec un syst\u00e8me d'IA et de comprendre son fonctionnement, ses caract\u00e9ristiques et ses limitations potentielles. Parmi les exemples de cette cat\u00e9gorie, on trouve les technologies utilis\u00e9es pour g\u00e9n\u00e9rer ou manipuler du contenu audiovisuel, comme les \u00abdeepfakes\u00bb, ou pour fournir des recommandations personnalis\u00e9es, par exemple \u00e0 travers des \u00abchatbots\u00bb.<\/p>\n\n\n\n<p><strong>- Risque minimal ou nul<\/strong>: Cela inclut les syst\u00e8mes d'IA qui n'affectent pas directement les droits fondamentaux ou la s\u00e9curit\u00e9 des individus, garantissant aux utilisateurs une libert\u00e9 totale de choix et de contr\u00f4le. Afin de favoriser l'innovation et l'exploration technologique, ces syst\u00e8mes ne sont soumis \u00e0 aucune obligation r\u00e9glementaire. Parmi les exemples courants, on trouve les applications \u00e0 des fins de divertissement, comme les jeux vid\u00e9o, ou celles ayant des objectifs esth\u00e9tiques, comme les filtres photo, qui n'ont pas d'implications significatives pour la soci\u00e9t\u00e9 ou les droits individuels.<br><br>La loi sur l'IA vise \u00e0 garantir la s\u00e9curit\u00e9 et l'\u00e9thique dans l'utilisation de l'intelligence artificielle, tout en prot\u00e9geant les droits des individus et des organisations. Les principales mesures comprennent :<br>\u2022\tDes exigences pour les syst\u00e8mes d'IA \u00e0 haut risque afin de prot\u00e9ger les droits fondamentaux tels que la vie priv\u00e9e, la dignit\u00e9 et la non-discrimination.<br>\u2022\tUne surveillance humaine pour suivre et corriger les syst\u00e8mes d'IA, afin de pr\u00e9venir tout pr\u00e9judice aux individus ou \u00e0 l'environnement.<br>\u2022\tL'interdiction des syst\u00e8mes d'IA qui violent les valeurs de l'UE, comme ceux qui manipulent le comportement ou exploitent les vuln\u00e9rabilit\u00e9s.<br>\u2022\tLa mise en place d'un cadre de gouvernance impliquant toutes les parties prenantes, avec des mesures de coop\u00e9ration, de surveillance et des sanctions.<br>\u2022\tLa promotion d'une culture de l'IA responsable, encourageant la transparence, la responsabilit\u00e9 et l'\u00e9ducation pour renforcer la confiance du public.<br><br>Ainsi, la loi sur l'IA vise \u00e0 r\u00e9guler les domaines o\u00f9 des risques apparaissent, en se concentrant davantage sur les usages de l'intelligence artificielle que sur la technologie elle-m\u00eame. En d\u00e9finissant des r\u00e9glementations r\u00e9gissant l'impact de la technologie sur la vie des gens, il est crucial de poursuivre au moins quatre objectifs, en les \u00e9quilibrant soigneusement : encourager l'innovation technologique, garantir la protection des droits des citoyens, assurer la faisabilit\u00e9 des exigences impos\u00e9es et rendre la loi durable dans le temps. Cet aspect, connu sous le nom de \u00ab pr\u00e9voyance pour l'avenir \u00bb (future proofness), implique la n\u00e9cessit\u00e9 de cr\u00e9er des r\u00e9glementations qui restent valides et applicables m\u00eame dans un contexte technologique en constante \u00e9volution.<\/p>\n\n\n\n<p> SOURCES: <br>&#8211;&nbsp;&nbsp; <a href=\"https:\/\/www.europarl.europa.eu\/topics\/en\/article\/20230601STO93804\/eu-ai-act-first-regulation-on-artificial-intelligence\">https:\/\/www.europarl.europa.eu\/topics\/en\/article\/20230601STO93804\/eu-ai-act-first-regulation-on-artificial-intelligence<\/a><br>&#8211; <a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/policies\/regulatory-framework-ai\">https:\/\/digital-strategy.ec.europa.eu\/en\/policies\/regulatory-framework-ai<\/a><\/p>\n\n\n\n<p><\/p>","protected":false},"excerpt":{"rendered":"<p>In recent years, the use of artificial intelligence has raised increasing concerns, particularly regarding potential abuses related to social surveillance systems, such&#8230;<\/p>","protected":false},"author":1,"featured_media":6246,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"give_campaign_id":0,"_uag_custom_page_level_css":"","footnotes":""},"categories":[28,96],"tags":[],"class_list":{"0":"post-6239","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-opinion-eng","8":"category-opinionfr"},"uagb_featured_image_src":{"full":["https:\/\/assedel.org\/wp-content\/uploads\/2025\/02\/cover-gaia.png",2000,1013,false],"thumbnail":["https:\/\/assedel.org\/wp-content\/uploads\/2025\/02\/cover-gaia-150x150.png",150,150,true],"medium":["https:\/\/assedel.org\/wp-content\/uploads\/2025\/02\/cover-gaia-300x152.png",300,152,true],"medium_large":["https:\/\/assedel.org\/wp-content\/uploads\/2025\/02\/cover-gaia-768x389.png",768,389,true],"large":["https:\/\/assedel.org\/wp-content\/uploads\/2025\/02\/cover-gaia-1024x519.png",1024,519,true],"1536x1536":["https:\/\/assedel.org\/wp-content\/uploads\/2025\/02\/cover-gaia-1536x778.png",1536,778,true],"2048x2048":["https:\/\/assedel.org\/wp-content\/uploads\/2025\/02\/cover-gaia.png",2000,1013,false],"trp-custom-language-flag":["https:\/\/assedel.org\/wp-content\/uploads\/2025\/02\/cover-gaia-18x9.png",18,9,true],"inhype-blog-thumb":["https:\/\/assedel.org\/wp-content\/uploads\/2025\/02\/cover-gaia-1140x694.png",1140,694,true],"inhype-blog-thumb-grid":["https:\/\/assedel.org\/wp-content\/uploads\/2025\/02\/cover-gaia-555x360.png",555,360,true],"inhype-blog-thumb-widget":["https:\/\/assedel.org\/wp-content\/uploads\/2025\/02\/cover-gaia-220x180.png",220,180,true],"inhype-blog-thumb-masonry":["https:\/\/assedel.org\/wp-content\/uploads\/2025\/02\/cover-gaia-360x182.png",360,182,true]},"uagb_author_info":{"display_name":"assedel","author_link":"https:\/\/assedel.org\/fr\/author\/assedel\/"},"uagb_comment_info":0,"uagb_excerpt":"In recent years, the use of artificial intelligence has raised increasing concerns, particularly regarding potential abuses related to social surveillance systems, such...","amp_enabled":true,"_links":{"self":[{"href":"https:\/\/assedel.org\/fr\/wp-json\/wp\/v2\/posts\/6239","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/assedel.org\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/assedel.org\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/assedel.org\/fr\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/assedel.org\/fr\/wp-json\/wp\/v2\/comments?post=6239"}],"version-history":[{"count":8,"href":"https:\/\/assedel.org\/fr\/wp-json\/wp\/v2\/posts\/6239\/revisions"}],"predecessor-version":[{"id":6320,"href":"https:\/\/assedel.org\/fr\/wp-json\/wp\/v2\/posts\/6239\/revisions\/6320"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/assedel.org\/fr\/wp-json\/wp\/v2\/media\/6246"}],"wp:attachment":[{"href":"https:\/\/assedel.org\/fr\/wp-json\/wp\/v2\/media?parent=6239"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/assedel.org\/fr\/wp-json\/wp\/v2\/categories?post=6239"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/assedel.org\/fr\/wp-json\/wp\/v2\/tags?post=6239"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}