Les États-Unis et le Royaume-Uni créent un partenariat pour la sécurité de l’intelligence artificielle

JAKARTA - Les États-Unis et le Royaume-Uni ont annoncé lundi 1er avril un nouveau partenariat dans la science de la sécurité de l’intelligence artificielle (IA), dans un contexte d’inquiétudes croissantes concernant la prochaine génération.

La secrétaire américaine du Commerce, Gina Raimondo, et la secrétaire britannique de technologie, Michelle Donelan, ont signé un protocole d’accord à Washington pour développer conjointement des essais de modèles d’IA continués, à la suite de l’engagement annoncé lors du sommet sur la sécurité de l’IA à Bletchley Park en novembre.

« Nous savons tous que l’IA est la technologie déterminante de notre génération », a déclaré Raimondo. « Ce partenariat accélérera le travail de nos institutions dans tout le spectre afin de surmonter les risques pour nos préoccupations de sécurité nationale et de notre société plus large. »

Le Royaume-Uni et les États-Unis sont parmi les pays qui ont créé un institut de sécurité d’IA dirigé par le gouvernement. La Grande-Bretagne a déclaré en octobre que son institut examinerait et testerait de nouveaux types d’IA, tandis que les États-Unis ont déclaré en novembre qu’ils avaient lancé leurs propres instituts de sécurité pour évaluer les risques des modèles d’IA frontaliers et travaillaient maintenant avec 200 entreprises et entités.

Dans le partenariat formel, le Royaume-Uni et les États-Unis prévoient d’organiser au moins un entraînement de test conjoint sur des modèles accessibles au public et envisagent d’explorer les échanges de personnel entre les instituts. Les deux pays travaillent à développer des partenariats similaires avec d’autres pour promouvoir la sécurité de l’IA.

« C’est le premier accord du genre n’importe où dans le monde », a déclaré Donelan. « L’IA est devenue une force extraordinaire pour le bien de notre société et a un grand potentiel pour surmonter certains des plus grands défis du monde, mais seulement si nous sommes capables de surmonter ces risques. »

L'IA générative - qui peut créer des textes, des photos et des vidéos en réponse à des indices ouverts - a suscité des fréquentations et des craintes d'être déchiré par certains emplois, de perturber les élections et de contrôler le potentiel humain et des conséquences catastrophiques.

Raimondo et Donelan ont exhorté les actions conjointes nécessaires pour surmonter les risques d’IA. « C’est très important car le prochain ensemble de modèles sera bientôt publié, ce qui sera beaucoup plus efficace », a déclaré Donelan. « Nous nous concentrons sur les domaines dans lequel nous sommes et surmontés et nous sommes vraiment spécialisés. »

Raimondo a déclaré qu’il discuterait de la question de l’IA lors d’une réunion du Conseil commercial et technologique entre les États-Unis et l’UE en Belgique le jeudi 4 avril. L’administration du président Joe Biden prévoit d’annoncer immédiatement l’ajout de son équipe d’IA. « Nous tirons pleins des ressources du gouvernement américain », a déclaré Raimondo.

Les deux pays prévoient de partager des informations clés sur les capacités et les risques liés aux modèles et systèmes d’IA, ainsi que des recherches techniques sur la sécurité et la sécurité de l’IA. En octobre, Biden a signé un décret visant à réduire les risques d’IA.

En janvier, le ministère du Commerce a déclaré qu’il proposait d’exiger que les entreprises nuageuses américaines déterminent si des entités étrangères accédaient aux centres de données américains pour former des modèles d’IA.

La Grande-Bretagne a déclaré en février qu’elle dépenserait plus de 100 millions de livres (2 billions IDR) pour lancer neuf nouveaux centres de recherche et former les régulateurs d’IA au sujet de la technologie. Raimondo a déclaré qu’il était profondément préoccupé par les menaces d’IA mises en œuvre au biotourisme ou aux simulations de guerre nucléaire.

« Ce sont des choses où les conséquences peuvent être catastrophiques et nous devons donc vraiment avoir une tolérance zéro pour certains de ces modèles utilisés pour ces capacités », a-t-il déclaré.