研究人员建议政府通过控制对硬件的访问来控制人工智能使用

雅加达 - OpenAI、剑桥、牛津和其他几所大学和机构的研究小组得出结论,打击恶意使用人工智能(AI)的唯一方法是继续开发更强大的人工智能并将其移交给政府。

科学家们在题为“计算力,然后是人工智能的治理”的论文中,研究了当今的挑战和未来参与监管人工智能使用和发展的潜力。

本文的主要论点是,控制未来谁拥有最强大的人工智能系统接入权限的唯一方法是控制接入培训和运行这些型号所需的硬件。

在这种情况下,“compute”指的是GPU和CPU等AI开发所需的基本硬件。

研究人员建议,防止人们使用人工智能造成破坏的最佳方法是切断他们从源头上访问。这意味着政府需要开发一个系统来监控硬件的开发、销售和操作,这些硬件被认为对先进人工智能开发很重要。

然而,该研究还表明,在规范对硬件的访问权限方面,天真或不适当的方法在隐私、经济影响和权力集中化方面构成了重大风险。

研究人员还指出,最近在通信高效培训方面取得的进展可能导致使用分散式“指数”来培训、构建和运行AI模型。这可能会使政府更难找到、监控和关闭与非法培训企图相关的硬件。

根据研究人员的说法,这可能使政府别无选择,只能采取对非法使用人工智能的武器竞争立场。“人们必须使用更强大,更具监管力的计算机,并谨慎,明智地制定防御,以应对不规则计算机带来的新风险。