IMD révèle les cinq principaux risques pour le développement de l’AGA pour l’homme
JAKARTA - En plus de l’intelligence artificielle (IA), de nombreux pays commencent également à développer l’intelligence générale (AGI), un système d’IA qui peut fonctionner de manière indépendante sans aide et surveillance humaine, ce qui est donc potentiellement dangereux.
Cependant, l’Institute of Management Development (IMD) a déclaré que le développement de l’AGI pourrait poser de risques élevés et devenir une catastrophe pour l’humanité.
Lorsque le développement de l’AGA ne deviendra plus contrôlé par l’homme, l’IMD prédit les risques qui surviendront. Tout d’abord, l’IA prendra en charge et contrôler les armes conventionnelles, allant des armes nucléaires, biologiques ou chimiques.
« La Chine accélère actuellement la commercialisation des robots d’exploitation minière, y compris leurs applications dans des infrastructures sensibles telles que les réseaux électriques et les centrales nucléaires », a déclaré Michael Wade, directeur du Centre mondial pour la transformation des affaires numériques de l’IMD.
Deuxièmement, il a déclaré que l’IA pourrait être utilisée pour manipuler ou perturber les marchés financiers, ainsi que pour des infrastructures critiques telles que l’énergie, les transports, les communications, l’eau, etc.
En outre, l’utilisation de l’IA peut également manipuler ou perturber les systèmes politiques, les réseaux sociaux et les écosystèmes biologiques et environnementaux, et même constituer une menace immédiate pour la vie humaine.
Par conséquent, il est nécessaire de réglementer les appropriés pour contrôler le développement de l’AGI dans le monde. Actuellement, il existe un certain nombre d’initiatives telles que le projet de loi sur l’IA de l’UE, le SB de Californie 1047 et la Convention cadre du Conseil de l’Europe sur l’IA qui peuvent être une référence aux règles de l’IA.
En plus des règles et des politiques gouvernementales, toutes les parties prenantes, en particulier les entreprises qui développent des modèles d’IA tels que OpenAI, Meta et Alphabet, jouent un rôle égal important dans la réduction des risques d’IA.
En fait, pour les pratiques de sécurité d’IA, un certain nombre d’entreprises de technologie de développement d’IA ont tenté de mettre en œuvre des réglementations de sécurité.
Par exemple, OpenAI a fourni un cadre de préparation, Alphabet a un cadre de sécurité à la frontière profonde de Google et Anthropic a élaboré une politique d’échantillonnage responsable (RSP).
« Ces divers cadres de travail sont une étape importante pour maintenir la sécurité de l’IA, mais il est toujours nécessaire de transparence et de meilleures mesures pratiques d’application », a conclu Wade.