IMD 揭示了人为 AGI 发展 的五大风险
雅加达 - 人工智能(AI)以外,许多国家也开始开发人工通用智能(AGI),这是一个可以在没有人类帮助和监督的情况下独立运作的AI系统,因此具有潜在的危险性。
然而,管理发展研究所(IMD)表示,AGI的发展可能构成高风险,并成为人类的灾难。
当AGI的发展变得不再由人类控制时,IMD预测将要发生的风险。首先,人工智能将接管和控制常规武器,包括核武器、生物武器或化学武器。
“中国目前正在加速人形机器人的商业化,包括其在电网和核电站等敏感基础设施中的应用,”IMD数字业务转型全球中心主任Michael Wade说。
其次,他说,人工智能可用于操纵或破坏金融市场,以及关键基础设施,如能源、运输、通信、水等。
此外,使用这种AI还可能是为了操纵或破坏政治制度、社交网络、生物和环境生态系统,甚至成为对人类生命的直接威胁。
因此,需要适当的法规来控制AGI在世界上的发展。目前,有许多举措,如《欧盟人工智能法》、《加利福尼亚州SB 1047》和欧洲理事会框架人工智能公约》,可以成为人工智能规则的参考。
除政府规则和政策外,所有利益相关者,特别是开发AI型号(如OpenAI)、Meta和Alphabet)的公司,在降低AI风险方面也发挥着同样重要的作用。
事实上,对于人工智能安全实践,一些人工智能开发技术公司曾试图实施安全法规。
例如,OpenAI提供了防范框架,Alphabet提供了Google DeepMind 前沿安全框架,Anthropic提供了负责任的规模政策(RSP)。
“这些不同的框架是维护人工智能安全的重要一步,但仍然需要透明度和更好的实际措施执行,”韦德总结道。