Les États-Unis, le Royaume-Uni et 18 autres pays ont mis en œuvre les premières directives internationales pour la sécurité de l’IA
JAKARTA - Les États-Unis, le Royaume-Uni et plus d’une douzaine d’autres pays ont annoncé dimanche ce qui a été décrété par les hauts responsables américains comme le premier accord international détaillé sur la façon de maintenir l’intelligence artificielle protégée contre les auteurs malveillants. Il encourage également l’entreprise à créer des systèmes d’intelligence artificielle « conceptuellement sécurisés ».
Dans un document de 20 pages annoncé dimanche, les 18 pays ont convenu que les entreprises qui créent et utilisent l’intelligence artificielle devraient le développer et la mettre en œuvre de manière qui protège les clients et le grand public contre les abus.
L’accord est contraignant et comprend principalement des recommandations générales telles que le suivi des systèmes d’intelligence artificielle pour les mauvaises utilisations, la protection des données contre la contrefaçon et le contrôle des fournisseurs de logiciels.
Cependant, la directrice de l’Agence américaine de cybersécurité et d’infrastructures, Jen Easterly, a déclaré qu’il était important que de nombreux pays soient d’accord sur l’idée selon laquelle les systèmes d’intelligence artificielle devraient mettre la sécurité en priorité.
« C’est la première fois que nous voyons une affirmation selon laquelle cette capacité n’est pas seulement une fonctionnalité cool et à quel point nous pouvons l’amener sur le marché ou sur la façon dont nous pouvons concourir pour réduire les coûts », a déclaré Easterly, cité par VOI à Reuters. Il a déclaré que ces lignes directrices représentent « l’accord selon lequel la chose la plus importante à faire au stade de la conception est la sécurité ».
L'accord est la dernière initiative d'une série d'efforts - dont certaines sont contraignants - menés par les gouvernements du monde entier pour former le développement de l'intelligence artificielle, dont l'impact est de plus en plus prononcé sur l'industrie et la société en général.
Outre les États-Unis et le Royaume-Uni, les 18 pays qui ont signé de ces nouvelles lignes directrices comprennent l’Allemagne, l’Italie, la République tchèque, l’Estonie, la Pologne, l’Australie, le Chili, Israël, le Nigeria et Singapour.
Ce cadre discutera de questions sur la façon de maintenir la prise en charge des technologies d’intelligence artificielle par les pirates et comprend des recommandations telles que la sortie du modèle après des tests de sécurité appropriés.
Cela ne résout pas les questions difficiles concernant l'utilisation appropriée de l'intelligence artificielle, ou la façon dont les données qui remplissent le modèle sont collectées.
L’émergence de l’intelligence artificielle a soulevé un certain nombre d’inquiétudes, y compris des inquiétudes selon lesquelles il pourrait être utilisé pour perturber les processus démocratiques, augmenter la fraude ou causer une perte d’emploi dramatique, entre autres.
L’Europe est à l’avant-garde des États-Unis dans les réglementations sur l’intelligence artificielle, les législateurs y élaborant des règles sur l’intelligence artificielle. La France, l’Allemagne et l’Italie ont également récemment conclu un accord sur la façon de réglementer l’intelligence artificielle en faveur d’un « auto-aménagement obligatoire par le biais d’un code de déontologie » pour les modèles de base de l’intelligence artificielle, conçus pour générer une variété de résultats.
L’administration du président Joe Biden a encouragé les législateurs à réglementer l’intelligence artificielle, mais le Congrès américain polarisé a fait peu de progrès dans la traversée d’une réglementation efficace.
La Maison Blanche s’efforce de réduire les risques de l’intelligence artificielle pour les consommateurs, les travailleurs et les groupes minoritaires tout en renforçant la sécurité nationale avec un nouvel ordonnance exécutive en octobre.