L’Union Européenne Met En Garde Contre Les Risques D’utilisation Future De L’intelligence Artificielle
JAKARTA - L’agence de surveillance des droits de l’homme de l’Union européenne (UE) a mis en garde contre les risques liés à l’utilisation de l’intelligence artificielle (IA) dans la prévision policière, le diagnostic médical et la publicité ciblée.
Cet avertissement intervient alors que l’UE envisage des règles l’année prochaine pour relever les défis posés par la technologie de l’intelligence artificielle.
Bien que l’IA soit largement utilisée par les organismes d’application de la loi, les groupes de défense des droits dis-le sont également maltraités par des régimes autoritaires pour surveillance discriminatoire et de masse. Les critiques s’inquiètent également des violations des droits fondamentaux des personnes et des règles de confidentialité des données.
Dans un rapport publié lundi 14 décembre, l’Agence des droits de l’homme de l’Union européenne (FRA), basée à Vienne, a exhorté les décideurs politiques à fournir davantage d’orientations sur la manière dont les règles existantes s’appliquent à l’utilisation de la technologie de l’IA et à veiller à ce que les règles relatives au futur front technologique de l’IA protègent les droits fondamentaux.
« L’IA n’est pas parfaite. Il est fait par les humains et les humains peuvent faire des erreurs. C’est pourquoi les gens doivent être vigilants lorsqu’ils utilisent l’IA, comment cela fonctionne et comment contester les décisions automatisées », a déclaré le directeur de la FRA, Michael O’Flaherty, dans un communiqué.
Le rapport de la FRA intervient alors que la Commission européenne, l’exécutif de l’Union européenne, envisage l’an prochain une législation pour couvrir un certain nombre de secteurs jugés à haut risque, tels que la santé, l’énergie, les transports et certains secteurs publics.
L’organe des droits de l’homme de l’UE a déclaré que les règles relatives à l’utilisation de l’IA doivent respecter tous les droits fondamentaux, avec des garanties pour garantir cela et inclure des garanties que les gens peuvent contester les décisions prises par la technologie.
En outre, selon l’agence, les entreprises devraient être en mesure d’expliquer comment leurs systèmes prennent des décisions pour l’IA.
L’organe des droits de l’homme de l’Union européenne a également déclaré qu’il devrait y avoir davantage de recherches sur les effets potentiellement discriminatoires de l’IA afin que l’Europe puisse s’en protéger. L’Union européenne devrait expliquer en outre comment les règles de protection des données s’appliquent à ces technologies.
Le rapport de la FRA est basé sur plus de 100 entretiens avec des organisations publiques et privées utilisant déjà l’IA, avec une analyse basée sur l’utilisation de l’IA en Estonie, finlande, France, Pays-Bas et Espagne.