Les chercheurs de ByteDance rejoignent le groupe d’experts en sécurité d’IA américain
JAKARTA - Un chercheur de ByteDance, la société mère chinoise TikTok, a été accidentellement ajouté au groupe de discussion d’experts américains en sécurité d’intelligence artificielle (IA) la semaine dernière.
L’Institut national des normes et de la technologie des États-Unis (Ntom) a expliqué lundi 18 mars que les chercheurs avaient été ajoutés au forum Slack utilisé par des membres du consortium U.S. artificiel Intelligence Safety Institute Consortium/AISIC) géré par Nprav.
Selon des sources connaissantes du problème, les chercheurs de ByteDance ont été ajoutés par des membres du consortium en tant que volontaires.
« Une fois Nstand appris que l’individu était un employé de ByteDance, ils ont été immédiatement libérés pour avoir violé le code d’éthique du consortium sur la désreprésentation », a déclaré Nprav par courrier électronique.
Les chercheurs dont le profil LinkedIn s’explique qu’il se trouve en Californie, ne répondent pas au message envoyé. ByteDance n’a pas non plus fourni de réponse aux demandes de commentaire par courriel.
L’émergence des chercheurs de ByteDance a mis en garde les membres du consortium parce que leurs entreprises n’étaient pas membres et que TikTok est devenu un centre de débat national aux États-Unis. Beaucoup craignent que l’application ne soit devenue une gâchette pour le gouvernement chinois d’espionnager ou de manipuler les citoyens américains à grande échelle.
La semaine dernière, la Chambre des représentants des États-Unis a adopté un projet de loi forçant ByteDance à libérer la propriété de TikTok ou à faire face à une interdiction nationale. Cependant, l’auttimum devrait rencontrer une voie alambiquante au Sénat.
L’Institut de sécurité d’IA a été créé pour évaluer les risques de programmes de renseignement artificiel de pointe. Anoncé l’année dernière, l’Institut a été établi sous le nom de Nprav et les membres fondateurs de son consortium comprennent des centaines de grandes entreprises technologiques américaines, d’universités, de startups d’IA, d’organisations non gouvernementales et d’autres, dont Thomson Reuters, la société mère de Reuters.
Le consortium s’efforce, entre autres, de développer des lignes directrices pour la mise en œuvre de programmes d’IA sécurisés et d’aider les chercheurs d’IA à trouver et à corriger les vulnérabilités de sécurité de leurs modèles. Nprav a déclaré que le forum Slack pour le consortium comptait environ 850 utilisateurs.