L’UE approche de l’adoption de règles sur l’utilisation de l’IA, y compris le modèle chatGPT soutenu par Microsoft
JAKARTA - Vendredi 2 février, l’Union européenne s’est approchée de l’adoption de règles régissant l’utilisation de l’intelligence artificielle (IA) et de modèles d’IA tels que chatGPT soutenus par Microsoft après que les États membres de l’Union européenne aient approuvé un accord politique conclu en décembre.
Ces règlements, proposés par la Commission européenne il y a trois ans, visent à établir des normes mondiales pour les technologies utilisées dans divers secteurs allant du secteur bancaire et du commerce de détail aux secteurs automobiles et de l’aviation.
Les règles fixent également des paramètres pour l’utilisation de l’IA à des fins militaires, criminelles et de sécurité.
Le chef de l’industrie de l’Union européenne, Thierry Breton, a déclaré que cette loi sur l’intelligence artificielle (IA) est historique et première chose au monde.
« Aujourd’hui, les États membres ont approuvé un accord politique conclu en décembre, reconnaissant le parfait équilibre trouvé par les négociateurs entre l’innovation et la sécurité », a-t-il déclaré dans un communiqué.
L’une des principales préoccupations des experts est que l’IA génératifs a amélioré les prof-fakes - des vidéos réalistes mais créées par un algorithme d’IA entraîné avec beaucoup d’enregistrements en ligne - qui apparaissent sur les médias sociaux, confusant les faits et la fiction dans la vie publique.
La responsable numérique de l’Union européenne, Margrike Vestager, a déclaré que la diffusion sur les médias sociaux de fausses images représentant sexuellement le chanteur pop Taylor Sight souligne la nécessité d’une nouvelle règle.
« L’incident qui s’est produit sur @taylors Op13 raconte tout: les pertes que #AI peuvent causer s’ils sont mauvaises utilisées, la responsabilité #plateforme et pourquoi il est très important de maintenir la #réglementation #technologie », a-t-il déclaré sur la plate-forme sociale X.
L’accord de vendredi est certain après que la France, qui s’est opposée pour la dernière fois, a réduit sa liberté contre la loi sur l’IA après avoir obtenu des conditions strictes qui équilibraient la transparence par rapport au secret d’affaires et réduisent le fardeau administratif sur les systèmes d’IA à haut risque.
L’objectif était de permettre aux modèles compétents d’IA de se développer dans le bloc, a déclaré vendredi à Reuters un responsable diplomatique de l’UE. Le responsable a refusé d’être nommé parce qu’il n’avait pas été autorisé à commenter publiquement sur la question.
La start-up Français d’IA, Azad, fondée par anciens chercheurs d’IA Meta et Google, ainsi qu’Aleph Alpha d’Allemagne, a influencé leurs gouvernements respectifs sur la question, ont déclaré des sources.
L'Allemagne a soutenu cette semaine.
Les groupes de pression technologique de CCIA qui ont des membres tels que Google, Amazon, Apple et Meta Platforms ont mis en garde contre d’obstacles à venir.
« Une grande partie des nouvelles règles d’IA ne sont toujours pas claires et peuvent ralentir le développement et l’introduction d’applications d’IA innovantes en Europe », a déclaré Boniface de Champris, responsable politique principal de CCIA Europe.
« La bonne mise en œuvre de la loi sera très importante pour s’assurer que les règles d’IA ne pèleront pas sur les entreprises dans leurs efforts d’innovation et de rivalité sur un marché en développement très dynamique. »
La prochaine étape pour que la loi sur l’IA devienne législative sera un vote par un comité clé des législateurs de l’UE le 13 février et un vote parlementaire en mars ou avril. La possibilité sera entrée en vigueur avant l’été et sera mise en œuvre en 2026 bien que certaines parties de ces règlements entrent en vigueur plus tôt.