雅加达 - 人工智能(AI)以外,许多国家也开始开发人工通用智能(AGI),这是一个可以在没有人类帮助和监督的情况下独立运作的AI系统,因此具有潜在的危险性。
然而,管理发展研究所(IMD)表示,AGI的发展可能构成高风险,并成为人类的灾难。
当AGI的发展变得不再由人类控制时,IMD预测将要发生的风险。首先,人工智能将接管和控制常规武器,包括核武器、生物武器或化学武器。
“中国目前正在加速人形机器人的商业化,包括其在电网和核电站等敏感基础设施中的应用,”IMD数字业务转型全球中心主任Michael Wade说。
其次,他说,人工智能可用于操纵或破坏金融市场,以及关键基础设施,如能源、运输、通信、水等。
此外,使用这种AI还可能是为了操纵或破坏政治制度、社交网络、生物和环境生态系统,甚至成为对人类生命的直接威胁。
因此,需要适当的法规来控制AGI在世界上的发展。目前,有许多举措,如《欧盟人工智能法》、《加利福尼亚州SB 1047》和欧洲理事会框架人工智能公约》,可以成为人工智能规则的参考。
除政府规则和政策外,所有利益相关者,特别是开发AI型号(如OpenAI)、Meta和Alphabet)的公司,在降低AI风险方面也发挥着同样重要的作用。
事实上,对于人工智能安全实践,一些人工智能开发技术公司曾试图实施安全法规。
例如,OpenAI提供了防范框架,Alphabet提供了Google DeepMind 前沿安全框架,Anthropic提供了负责任的规模政策(RSP)。
“这些不同的框架是维护人工智能安全的重要一步,但仍然需要透明度和更好的实际措施执行,”韦德总结道。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)