ChatGPT可以用假摘要愚弄研究人员,如何?

雅加达 - 据报道,由OpenAI制造的人工智能(AI)ChatGPT正在用虚假的科学摘要欺骗研究人员,其中他们认为自己正在阅读人类编写的真实文本。

由西北大学领导的一组研究人员使用文本生成工具,以五种不同医学期刊的风格,根据真实的科学论文标题生成了50篇摘要。

摘要是一个整洁的摘要,添加到研究论文的顶部,以全面了解正在研究的内容。

此外,摘要还接受了从《英国医学杂志》(BMJ)和《自然医学》中选择的内容的培训。然后,四名研究人员注册参加测试,并被分成两组,每组两人。

使用电子硬币翻转来决定是将原始或伪造的AI生成的摘要提供给每组中的一名审稿人。一位研究人员得到原始摘要,第二名研究人员得到假摘要,反之亦然。每个人都审查25个科学摘要。

结果,不仅计算机文本通过了反抄袭检测器,而且真正的研究人员也无法找到假货。

人工审稿人仅正确识别了 68% 的 ChatGPT 摘要和 86% 的原始摘要。医学研究小组认为,32%的人工智能生成的摘要是真实的,14%的真实摘要是假的。

“我们的审稿人评论说,很难区分真假摘要。ChatGPT生成的摘要非常令人信服,它甚至知道在找到数字时患者队列应该有多大,“伊利诺伊州芝加哥西北大学的研究负责人Catherine Gao说。地铁,1月17日,星期二。

“ChatGPT撰写的科学摘要是可信的,即使有完全生成的数据,他们在研究预印本中解释,”他补充说。

高补充说,ChatGPT创建的摘要是真实的,没有任何可检测的抄袭,但通常可以使用AI输出检测器和持怀疑态度的人工审阅者来识别。

“医学期刊和会议的摘要评估必须调整政策和实践,以保持严格的科学标准。我们建议在编辑过程中包括人工智能输出检测器,并在使用这项技术时明确披露,“高说。

“使用大型语言模型来帮助科学写作的道德和可接受的限制尚未确定,”他补充说。

像 ChatGPT 这样的大型语言模型是在从互联网上检索到的大量文本上进行训练的。他们通过预测哪些单词更有可能出现在给定句子中来学习构建文本,并且可以编写语法准确的语法。

不出所料,即使是学者也会被愚弄,相信人工智能生成的抽象是真实的。大语言模型擅长产生结构和模式清晰的文本。科学摘要通常遵循类似的格式,并且可能非常模糊。

高认为,像ChatGPT这样的工具将使从发表研究中获利的造纸厂更容易生产假科学论文。

“如果其他人试图从这些错误的研究基础上建立他们的科学,这可能是非常危险的,”高说。