Partager:

JAKARTA - L’administration du président américain Joe Biden est prête à ouvrir un nouveau front dans ses efforts pour protéger l’intelligence artificielle américaine contre la Chine et la Russie. Ils prévoient de placer la sécurité autour du modèle d’IA le plus sophistiqué, le cœur logiciel de systèmes d’intelligence artificielle tels que chatGPT.

Le ministère du Commerce envisage d’encourager une nouvelle réglementation pour limiter les exportations de modèles d’IA utilisés par le public ou de sources fermées, dont les logiciels et les données qu’il s’entraîne sont gardés secrets, ont déclaré trois personnes familières avec l’affaire.

Toute mesure complétera une série de mesures mises en œuvre au cours des deux dernières années pour bloquer les exportations de puces d’IA avancées vers la Chine dans le but de ralentir le développement de la technologie de pointe de Beijing à des fins militaires. Cependant, il sera difficile pour les régulateurs de poursuivre le développement rapide de l’industrie.

Le ministère du Commerce a refusé de commenter tant que l’ambassade de Russie à Washington n’avait pas immédiatement répondu à une demande de commentaire. L’ambassade de Chine a qualifié cette décision de « une action économique et une intimidation unilatérale typiques, à laquelle la Chine s’oppose fermement ». Ils ont ajouté qu’il prendrait « les mesures nécessaires » pour protéger ses intérêts.

Pour le moment, rien ne peut empêcher les géants américains de l’IA comme Microsoft, OpenAI soutenus par Microsoft, Google DeepMind d’Alphabet et les concurrents d’Anthropic, qui ont développé certains des modèles d’IA à source fermée les plus puissants, de les vendre à presque tout le monde sans surveillance gouvernementale.

Les chercheurs publics et privés craignent que les ennemis américains puissent utiliser ces modèles, qui minent de grandes quantités de textes et d’images pour résumer des informations et de créer du contenu, lancer des cyberattaques agressives ou même créer des armes biologiques efficaces.

Une source a déclaré que les nouveaux contrôles d’exportation seront très probablement visés à la Russie, à la Chine, à la Corée du Nord et à l’Iran. Microsoft a déclaré dans un rapport en février qu’il avait suivi des groupes de pirates affiliés aux gouvernements chinois et nord-coréens, ainsi que des services de renseignement militaire russes et de la Garde révolutionnaire iranienne, alors qu’ils essaient d’améliorer leurs campagnes de piratage en utilisant un modèle de langage grand.

L'expertise des computs

Pour développer le contrôle des exportations sur les modèles d’IA, les sources ont déclaré que les États-Unis pourrait utiliser le seuil contenu dans un décret exécutif d’IA émis en octobre dernier sur la base de la quantité de puissance de calcul nécessaire pour former le modèle. Une fois ce niveau atteint, les développeurs devront signaler leurs plans de développement de modèles d’IA et fournir les résultats d’essai au ministère du Commerce.

Le plafond de puissance calculatoire pourrait être la base pour déterminer quels modèles d’IA seront soumis à des restrictions d’exportation, selon deux responsables américains et d’autres sources informées sur les discussions. Ils ont refusé d’être nommés parce que les détails n’ont pas été divulgués.

S’il est utilisé, il est susceptible de limiter les exportations de modèles qui n’ont pas été publiés, car rien ne devrait avoir atteint ce seuil, bien que Gemini ultra de Google soit considéré comme proche, selon EpochAI, un institut de recherche qui suit les tendances de l’IA.

L’agence est loin d’aborder une proposition de règlement. Mais le fait qu’une telle mesure est envisagée montre que le gouvernement américain cherche à combler l’écart dans ses efforts pour freiner les ambitions de Beijing d’IA, malgré les graves défis dans l’imposition d’un régime réglementaire fort à une technologie qui se développe rapidement.

Alors que l’administration de Biden prête attention à la concurrence avec la Chine et aux dangers de l’IA avancée, les modèles d’IA « sont clairement l’un des outils, l’un des points d’accent potentiels à qui vous devriez penser ici », a déclaré Peter Harrell, ancien fonctionnaire du Conseil de sécurité nationale. « Vous pouvez vraiment, dans la pratique, vous pouvez le transformer en un chokepoint contrôlé par l’exportation, toujours être vu », a-t-il ajouté.

Biologique et Conflit en ligne?

La communauté américaine de renseignement, les pensionnats et les universitaires sont de plus en plus préoccupés par les risques posés par les acteurs étrangers qui accèdent à des capacités d’IA avancées. Les chercheurs de gorphon Scientific et Rand Corporation notent que les modèles d’IA avancés peuvent fournir des informations qui pourraient aider à créer des armes biologiques.

Le ministère de la Sécurité intérieure a déclaré que les cyberacteurs utilisaient probablement l’IA pour « développer de nouveaux outils » pour « permettre des cyberattaques plus grandes, plus rapides, plus efficaces et plus difficiles à détecter » dans sa évaluation des menaces nationales de 2024.

« L’explosion potentielle pour l’utilisation et l’exploitation de [IA] est très radicale et nous avons vraiment du mal à y suivre », a déclaré Brian Holmes, un responsable du bureau du général du renseignement national, lors d’une réunion sur le contrôle des exportations en mars, soulignant les progrès de la Chine comme une préoccupation spéciale.

LISTE DE LISTE DE AI

Pour surmonter ces préoccupations, les États-Unis ont pris des mesures pour arrêter le flux de puces américaines d’IA et d’outils pour les faire en Chine.

Des règles ont également été proposées pour exiger que les entreprises nuageuses américaines informent le gouvernement de si des clients étrangers utilisent leurs services pour former des modèles puissants d’IA pouvant être utilisés pour les cyberattaques.

Cependant, jusqu’à présent, personne ne s’est occupé du modèle d’IA lui-même. Alan Estevez, qui supervise la politique d’exportation américaine au département du Commerce, a déclaré en décembre que l’agence recherchait une option pour réglementer les exportations de modèles de langue grosse source ouverte avant de demander des commentaires de l’industrie.

Tim Fist, un expert en politique d’IA au réservoir d’assurance CNAS basé à Washington DC, a déclaré que le seuil était « une bonne étape temporaire jusqu’à ce que nous développions de meilleures méthodes pour mesurer les capacités et les risques de nouveaux modèles ».

Jamil Jaffer, ancien fonctionnaire de la Maison Blanche et du ministère de la Justice, a déclaré que l’administration de Biden ne devrait pas utiliser le seuil de puissance informatique mais choisir le contrôle en fonction des capacités et de l’utilisation prévu du modèle. « Prendre des risques pour la sécurité nationale plutôt que des seuils technologiques est une étape plus durable et axée sur les menaces », a-t-il déclaré.

Les limites ne sont pas égales. Une source a déclaré que le ministère du Commerce pourrait obtenir un sol inférieur, combiné à d’autres facteurs, tels que le type de données ou l’utilisation potentielle pour les modèles d’IA, tels que la capacité à concevoir des protéines qui peuvent être utilisées pour fabriquer des armes biologiques.

Indépendamment du seuil, l’exportation de modèles d’IA sera difficile à contrôler. De nombreux modèles sont à la source ouverte, ce qui signifie qu’ils resteront hors de la portée du contrôle d’exportation envisagé.

Même imposer des contrôles sur des modèles utilisateurs plus sophistiqués sera difficile, car les régulateurs pourraient avoir des difficultés à définir les critères appropriés pour déterminer quel modèle devrait être contrôlé du tout, a déclaré Fist, notant que la Chine est probablement à environ deux ans derrière les États-Unis dans le développement de leurs propres logiciels d’IA.

Les contrôles d’exportation en cours envisagés affecteront l’accès au logiciel en phase d’affichage qui encourage certaines applications pour la consommation telles que ChatGPT, mais ne limite pas l’accès à ces applications dérivées elles-mêmes.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)