Aidez notre cause.
ActualitésConseil de l'EuropeConseil de l'EuropeActualitésSoumissionsSoumissionsUncategorized

Équilibrer protection et vie privée dans l’UE

Le règlement proposé par l’Union européenne sur l’abus sexuel des enfants (CSAR), communément appelé « Chat Control », est une initiative législative visant à répondre à la croissance rapide des contenus d’abus sexuels d’enfants en ligne (CSAM) et des pratiques de grooming. Présentée par la Commission européenne en mai 2022, cette proposition s’appuie sur la Stratégie de l’UE de 2020 pour une lutte plus efficace contre l’abus sexuel des enfants et vise à harmoniser les obligations des fournisseurs de services en ligne à l’échelle de l’UE. Ces obligations incluent l’évaluation des risques, la mise en place de mesures d’atténuation, la détection de CSAM, le signalement aux autorités et le soutien aux victimes, le tout coordonné par un Centre de l’UE nouvellement créé.

L’un des défis de la proposition concerne le chiffrement de bout en bout (E2EE). Si le chiffrement protège la vie privée des utilisateurs et la sécurité de leurs données, il limite également la capacité des plateformes à détecter les contenus illégaux. La proposition initiale de la Commission visait à résoudre cette tension en permettant aux autorités d’ordonner une analyse obligatoire des communications privées, y compris des messages chiffrés au moyen d’une analyse côté client (client-side scanning). Cette approche a suscité une vive opposition de la part des défenseurs de la vie privée, des technologues et de plusieurs États membres, qui ont averti qu’elle affaiblirait le chiffrement, violerait les droits fondamentaux et transformerait les appareils privés en outils de surveillance.

Entre 2022 et 2025, la proposition a fait l’objet de révisions substantielles. La résistance politique, notamment au sein du Parlement européen et du Conseil, a conduit à la suppression des injonctions de détection obligatoire. En novembre 2025, le Conseil est parvenu à un accord sur un texte révisé qui a abandonné la détection obligatoire. À la place, le projet actuel établit un cadre permanent pour la détection « volontaire » des contenus pédopornographiques (CSAM),soutenu par un système de classification des risques à trois niveaux (faible, moyen, élevé). Les services classés à haut risque doivent adopter des « mesures d’atténuation des risques », la détection figurant parmi les options possibles. Les fournisseurs qui procèdent volontairement à une détection peuvent bénéficier d’une sécurité juridique, d’un soutien financier et d’une amélioration de leur classification de risque.

Malgré la suppression des obligations formelles, les critiques soutiennent que le système crée une forte pression indirecte pour analyser les communications. Les plateformes peuvent se sentir contraintes de participer à l’analyse afin d’éviter une qualification à haut risque, un contrôle réglementaire accru, des amendes ou un préjudice réputationnel. Ainsi, l’analyse « volontaire » pourrait, en pratique, fonctionner comme une obligation. Le règlement introduit également une exception permanente à la directive ePrivacy, prolongeant ce qui n’était auparavant qu’une dérogation temporaire.

D’autres éléments controversés subsistent. Le potentiel balayage massif des communications privées soulève des inquiétudes quant aux faux positifs et aux biais algorithmiques dans les systèmes de détection automatisés, et réintroduit des exigences de vérification de l’âge et de l’identité susceptibles de compromettre l’anonymat et d’entrer en conflit avec les principes de minimisation des données du RGPD. Les critiques avertissent que ces mesures peuvent affecter de manière disproportionnée les groupes vulnérables, affaiblir la confiance dans les services numériques et normaliser la surveillance de masse.

En date de décembre 2025, le règlement est en négociations en trilogue, avec un accord final attendu en 2026. Bien que l’engagement de l’Union européenne en faveur de la protection de l’enfance soit largement soutenu, d’importantes préoccupations juridiques, éthiques et techniques persistent. Le débat central reste non résolu : comment lutter efficacement contre les abus sexuels sur mineurs en ligne sans porter atteinte à la vie privée et aux droits fondamentaux.

Pour consulter le rapport complet, cliquez sur le lien ci-dessous et découvrez-en davantage.

Related posts
EntretiensInterviewsUncategorized

The EU-Mercosur Agreement and its balance with human rights: A Conversation with MEP Oihane Agirregoitia 

At the latest plenary sessions in Strasbourg, ASSEDEL interviewed Oihane Agirregoitia, Member of the European Parliament (MEP) from the Renew Europe group….
ActualitésEntretiensInterviewsActualités

"Europe is going in the wrong direction": MEP Cecilia Strada on migration and fundamental rights

ASSEDEL had the pleasure to interview Cecilia Strada, Italian MEP part of the Group of the Progressive Alliance of Socialists and Democrats…
EntretiensInterviewsActualités

L’Union européenne et la perte de son autorité morale et géopolitique : un entretien avec le député européen Rudi Kennes

During the final plenary sessions of January in Strasbourg, we had the opportunity to speak with Rudi Kennes, an independent Member of…
Abonnez-vous à notre newsletter!

Abonnez-vous pour recevoir les dernières informations sur notre lutte pour promouvoir les droits de l'homme.