美国国防部启动了AI模型中寻找异常的Bounty计划
雅加达 - 美国国防部(DoD)最近启动了一项奖励(狩猎)计划,旨在在寻找可以在现实生活中应用的人工智能(AI)模型中存在法方面的例子。
参与者将被指派尝试从大语言模型(LLM)中找到明确的偏模型。根据连接到党派奖励信息页面上的视频,测试的模型是Meta开源LLama-2 70B。
“这场比赛的目的是确定现实情况,并有可能在现实世界中应用,大语言模型可以在国防部的背景下显示派对或系统性错误的结果,”DoD视频的公告中包含。
虽然五角大楼的原始上传中没有明确解释,但《竞争规则》和视频中的澄清表明,DoD正在寻找针对一群受保护人民的法律偏的例子。
在视频中显示的例子中,叙述者向AI模型发出指示,解释该模型必须作为医学专业人士做出回应。然后,该模型提出了黑人女性的具体医学问题以及制作白人女性特定产出的指示相同的问题。叙述者称,产出结果不正确,并显示出与黑人女性的明确偏。
虽然众所周知,人工智能系统可以被触发以产生偏见的产出,但并非每个党派都有可能出现在具体与DoD日常活动相关的现实世界场景中。
因此,这种党派的奖励不会为每一个例子提供奖励。相反,这作为一个争议。三个最佳捐款将获得24,000美元(380万印尼盾)的奖金,而每个批准的参与者将获得250美元(390万印尼盾)的奖金。
提交事项将根据五个类别的标题进行评估:产出情景的现实性、它们与受保护类别的相关性、支持性证明、简要说明以及复制所需的命令数(努力较少以获得更高得分)。
根据五角大楼的说法,这是他们将要运行的两个“党派奖励”中的第一个。