Session de formation organisée par ASSEDEL, maintenant disponible sur le site officiel ASSEDEL YouTube channel.
Le 23 avril, ASSEDEL a organisé une session de formation stimulante intitulée «Le rôle de l'automatisation dans les droits humains internationaux : une analyse de Fikfak et Helfer.» La session, qui a exploré l'intégration croissante de l'Intelligence Artificielle (IA) dans les systèmes judiciaires internationaux—en particulier la Cour européenne des droits de l'homme (CEDH)—a également été diffusée en direct et est maintenant disponible en replay sur la chaîne YouTube d'ASSEDEL.
La session s'est appuyée sur le travail critique des chercheurs Fikfak et Helfer, qui examinent les défis et les opportunités présentés par l'IA dans le domaine de l'adjudication des droits humains.
Une cour sous pression : Le paysage actuel
La CEDH fait face à un afflux sans précédent de demandes, une situation aggravée par le retrait des juges russes à la suite du retrait de la Russie de la Convention européenne des droits de l'homme en 2022. Avec les affaires russes désormais redirigées vers Genève et la pénurie de personnel croissante, le débat sur l'automatisation et l'IA est devenu de plus en plus urgent.
L'IA peut-elle aider? Et devrait-elle?
La formation a exploré diverses manières dont l'IA pourrait soutenir ou rationaliser les procédures judiciaires:
- Transcription des plaintes manuscrites en formats numériques;
- Traduction de documents juridiques, bien que cela se fasse souvent au prix de la nuance émotionnelle essentielle dans les affaires de droits humains;
- Regroupement de cas similaires en fonction du sujet ou de la complexité;
- Construction d'algorithmes d'arbres de décision pour évaluer les recours internes, les indemnités, l'admissibilité, et plus encore.
Malgré les gains d'efficacité potentiels, les participants ont souligné que la supervision humaine est essentielle. Les valeurs en jeu, le caractère irréversible de nombreuses décisions de la CEDH, et la nécessité de responsabilité rendent clair que l'IA ne peut pas—et ne doit pas—opérer de manière indépendante dans un tel contexte sensible.
Défis techniques et dilemmes éthiques
Un paradoxe abordé était la dépendance continue de la Cour envers les systèmes basés sur le papier. De nombreux requérants soumettent encore leurs plaintes par courrier traditionnel, qui doivent ensuite être saisies manuellement dans les systèmes numériques par le personnel de la Cour. Cela soulève des questions importantes sur l'accessibilité et l'équité numérique.
Une autre préoccupation majeure est la le manque d'expertise technologique parmi les juges et le risque de biais d'automatisation—la tendance à accepter les résultats algorithmiques sans une vérification suffisante. Cela met en évidence la nécessité urgente de une formation à la littératie des données et une responsabilité algorithmique transparente.
Questions clés et préoccupations soulevées
- Comment garantir un examen humain des décisions générées par l'IA?
- Qui est responsable de l'évaluation de la qualité des algorithmes, et comment cela devrait-il être fait?
- Comment prévenir le mauvais usage des outils d'IA dans des contextes juridiques à fort enjeu?
- Comment pouvons-nous éduquer les professionnels du droit et le public à s'engager de manière critique avec la prise de décision basée sur les données?
Vers une innovation responsable dans la justice des droits humains
La session a souligné que l'introduction de l'IA dans le domaine judiciaire n'est pas simplement une mise à jour technique—c'est une transformation profonde avec des implications éthiques et juridiques. Un développement réfléchi, inclusif et transparent est nécessaire pour garantir que l'automatisation serve la justice, plutôt que de la compromettre.
Pour ceux qui souhaitent approfondir ce sujet important, l'enregistrement complet de la session est disponible sur ASSEDEL’s official YouTube channel, offrant une ressource précieuse pour les chercheurs, les praticiens et les étudiants.