OpenAI 改变了将 ChatGPT 用于军事目的的规则
雅加达 - OpenAI是创建ChatGPT的公司,秘密改变了使用规则,并取消了禁止将其创建的聊天机器人和智能工具用于军事目的。
规则的改变发生在1月17日星期三之后,并包括删除一句话,即该公司不会允许使用该模型“具有高度身体伤害风险的活动,包括:武器、军事和战争的发展”。
OpenAI发言人表示,该公司正在与国防部合作,开发用于保护开源软件的网络安全工具。
“我们的政策不允许使用我们的工具伤害人,开发武器,通信监视,或伤害他人或破坏财产。但是,有些国家安全使用符合我们使命的情况,“OpenAI发言人说,VOI援引Daily Mail的话说。
“例如,我们已与国防高级研究计划局(DARPA)合作,鼓励创建新的网络安全工具,以保护依赖关键基础设施和工业的开源软件,”他补充说。
目前尚不清楚以前的政策是否允许此类有益利用案件,该政策禁止将其用于“军事”目的。作为回应,政策更改的目的是提供与此事相关的清晰度和讨论能力。
前一年,包括美国和中国在内的60个国家签署了一项“行动呼吁”,限制将人工智能(AI)用于军事目的。然而,海牙的人权专家强调,“行动呼吁”没有法律效力,也不能解决与可能在没有人干预的情况下杀死的“拖曳物”有关的担忧。
签署方宣言致力于按照“国际法的义务,并以不破坏国际安全、稳定和责任的方式发展和使用军事人工智能”。
乌克兰等一些国家在与俄罗斯的战斗中使用了人为协助的面部识别和定位系统。2020年,利比亚政府部队发射了一架土耳其制造的Kargu-2自动无人机,袭击正在撤退的反叛军。根据联合国的一份报告,这是历史上首次由自动无人机进行的攻击。
OpenAI全球事务副总裁Anna Makanju在本周的一次采访中表示,“一般”条款被删除,以允许根据公司价值进行适当的军事使用。
「由于以前我们以前有基本上涉及军队的禁令,许多人认为它将禁止许多这种使用的案件,人们认为这与我们希望在世界上看到的内容非常一致。
以前的“大科技”组织使用人工智能引起了争议。2018年,数千名谷歌员工抗议五角大楼的合同“狂野项目”,该合同涉及使用公司制造的人工智能工具分析无人机监视录像。
抗议活动结束后,谷歌没有续约。微软员工还抗议价值4.8亿美元(7.5万亿印尼盾)的合同,为士兵提供额外的现实耳机。
2017年,包括埃隆·马斯克(Elon Musk)在内的科技领导人写信给联合国,呼吁禁止自治武器,根据类似于禁止旨在削弱人类视力的化学和激光武器的法律。
他们警告说,自治武器可能引入“战争中的第三次革命”,继第一次革命之后,粉红色粉红色,以及第二次核武器。专家还警告说,一旦'潘多拉的箱子'完全自治武器被打开,就不可能再次关闭它。