Opinion

Possibles incidences négatives de l’utilisation de l’intelligence artificielle sur les droits liés à la protection des données

Ces dernières années, avec le développement de la technologie, nous avons assisté à de nombreux débats sur l’influence de l’intelligence artificielle sur le droit à la vie privée. Avec les algorithmes, la collecte et le traitement des données sont devenus un jeu d’enfant. Cela peut être une cause des conséquences non désirées sur l’exercice du droit à la vie privée et familiale, y compris le droit à la protection des données, tel que garanti par l’article 8 de la CEDH.

Dans le cadre du traçage en ligne, des algorithmes sont utilisés et les habitudes de navigation des individus sont enregistrées par des cookies et d’autres technologies. En outre, les données comportementales, telles que les données de localisation et d’autres capteurs, sont traitées par des applications téléchargées sur des appareils intelligents, ce qui pose des problèmes en matière de protection de la vie privée et des données.

Le premier défi possible du traitement algorithmique est la génération de nouvelles données. En cas de partage de certaines données par une personne concernée, il est inévitable que ces données soient fusionnées, générant ainsi une deuxième, voire une troisième génération de données sur les individus. L’évaluation d’une partie innocente des données par rapport à un ensemble plus vaste de données peut engendrer de nouvelles données, dont la nature peut être totalement imprévisible pour la personne concernée. Cela soulève des questions majeures pour la nation du consentement, de la transparence et de l’autonomie personnelle.

Une deuxième préoccupation, qui découle de l’utilisation de courtiers en données qui compilent les données dans le profil de l’individu. Le profilage, en soi, signifie l’extrapolation de données disponibles sur l’internet par des processus de collecte automatisée d’informations, puis la construction et l’application de profils. Les personnes physiques et morales peuvent bénéficier des techniques de profilage. Elles permettent notamment d’élaborer des politiques de marché plus efficaces. Elles permettent également d’analyser les risques et les fraudes. Mais en fin de compte, cela peut être un motif de préoccupation mentionné.

L’autre préoccupation secondaire liée à l’utilisation de données issues de profils pour atteindre des objectifs ciblés par le biais d’algorithmes est que les données peuvent perdre leur contexte d’origine. La réaffectation des données est susceptible d’affecter l’autodétermination informationnelle d’une personne. Outre les algorithmes, les moteurs de recherche peuvent également avoir une incidence sur le droit à la vie privée et à la protection des données, car ils peuvent ouvrir la voie à l’agrégation de données sur les personnes concernées. Le profilage et la réutilisation ultérieure des données se feront sans le consentement de la personne concernée, ce qui facilitera l’obtention d’informations en réduisant l’incertitude pratique des données anonymes.

Un autre aspect critique de l’utilisation d’algorithmes pour le traitement automatisé des données concerne le stockage des données dans le nuage. Il s’agit de solutions par lesquelles les fichiers ne sont plus stockés localement mais à distance sur des serveurs accessibles via Internet. Cependant, en raison de la conservation dans des méthodes de stockage non locales, les données des utilisateurs peuvent être traitées par des algorithmes d’une manière intrusive qui n’aurait jamais été vue auparavant.

En plus des préoccupations susmentionnées, il est de plus en plus clair que les informations collectées dans le but d’obtenir des informations comportementales peuvent être un outil pour manipuler les élections.

En conclusion, si les données obtenues par l’intelligence artificielle tombent entre de mauvaises mains, cela peut conduire à un chemin irréversible en termes de droits humains fondamentaux.

Related posts
Opinion

Le mécanisme de conditionnalité de l'UE en matière d'État de droit, à la lumière des développements récents

Alors que le terme de “conditionnalité de l’État de droit” est de plus en plus entendu dans les relations de l’UE avec…
Opinion

Rapport du HCDH sur le Xinjiang : 1 plus 1 ne font pas 2, mais un couple de 1

Le rapport le plus attendu de Michelle Bachelet sur le Xinjiang a finalement été publié le dernier jour du mois d’août, juste…
Opinion

L'INTEROPÉRABILITÉ ENTRE LES BASES DE DONNÉES DE L'UE EST-ELLE CONTRAIRE À LA LÉGISLATION EUROPÉENNE SUR LA PROTECTION DES DONNÉES ?

L’interopérabilité est une sorte de connexion entre les systèmes d’information pour échanger des données et les partager en contribuant ensemble à établir…
Subscribe to our newsletter!

Subscribe to get the latest information about our struggle to promote human rights.