雅加达 - 南美洲哥伦比亚的一名法官出人意料地使用ChatGPT做出法院判决,这是第一次在人工智能(AI)文本生成器的帮助下做出法律判决。
主持哥伦比亚卡塔赫纳市第一巡回法院的胡安·曼努埃尔·帕迪拉·加西亚法官使用人工智能工具提出法律问题,并将他的回答纳入他的决定。
根据 2023 年 1 月 30 日公布的法庭文件,该案涉及与一家健康保险公司就自闭症儿童是否应获得医疗保险的纠纷。
加西亚的结论是,孩子的整体医疗费用和交通费用必须用保险支付,因为父母负担不起。
在这些法庭文件中,加西亚提出了聊天机器人的问题,例如“自闭症未成年人(是否)免于支付治疗费用?”以及“宪法法院判例在类似案件中是否做出了有利的决定?”加西亚说。
ChatGPT的回应符合法官的最终决定,“是的,这是真的。根据哥伦比亚的规定,被诊断患有自闭症的未成年人免缴治疗费,“ ChatGPT 回答说。
虽然它本身并没有引起太大的骚动,但将加西亚与ChatGPT的对话纳入裁决是颇具争议的。
但在一份声明中,加西亚推断,通过使用ChatGPT,他可以在证实AI提供的信息后节省编译评估的时间。
“这一决定的论点将根据人工智能的使用来确定。因此,我们包括在此过程中提出的一些法律问题,“加西亚解释说。
“插入这个人工智能生成的文本的目的绝不会取代法官的决定。我们真正正在寻找的是优化在证实人工智能提供的信息后编译评估所花费的时间,“他补充说。
加西亚于2月4日星期六推出《卫报》,为他使用该技术辩护,称它可以使哥伦比亚臃肿的法律体系更有效率。他还利用先前裁决的先例来支持他的决定。
加西亚向蓝光电台透露,ChatGPT和其他类似程序可用于促进文本的起草,但不能取代法官。
“通过向应用程序提问,我们不会停止成为法官,思考生物,”加西亚说。
此案引发了关于在法律中使用人工智能的讨论,并受到加西亚的一些同事的批评。
请注意,ChatGPT 在互联网上搜索文本以产生明智的回复,但已被证明对同一问题提供不同的答案。
哥伦比亚法律并不禁止在法院判决中使用人工智能,但像ChatGPT这样的系统有时会捏造信息来制造创造性和令人信服的谎言。
这是因为语言模型缺乏实际的文本理解,它只是根据用于训练系统的数百万个示例的概率合成句子。
ChatGPT的创建者OpenAI已经应用了过滤器来消除一些更有问题的响应。但开发人员警告说,该工具仍然存在重大限制,不应用于相应的决策。
最近几周,这个新兴且蓬勃发展的平台引起了人们的关注,包括在教育领域,教师担心ChatGPT可能会被学生用于抄袭。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)