雅加达 - 在过去三个月中,OpenAI宣布已成功破坏了一项秘密行动,试图使用其AI模型来支持互联网上的欺诈活动。
欺诈者通常使用AI以多种语言创建短评和长篇文章,为社交媒体帐户创建姓名和传记,进行开源研究,挑剔简单的代码,以及翻译和纠正文本。
这些行动发布的内容侧重于各种问题,包括俄罗斯入侵乌克兰,加沙冲突,印度选举,欧洲和美国政治,以及中国支持者和外国政府对中国政府的批评。
该操作通常旨在能够显着增加参与度或观众覆盖面。然而,由于OpenAI的努力,他们在整个五月看到,该操作未能吸引大量观众。
因此,OpenAI重申其承诺,即执行防止滥用和提高人工智能生成内容透明度的政策。
“我们致力于开发安全和负责任的AI,涉及通过考虑安全性和主动干预不良使用来设计我们的模型,”该公司表示。
OpenAI还继续与其他公司进行深入调查,以创造负责任的AI开发。
“我们致力于利用生成人工智能的力量,通过利用生成人工智能的力量,大规模发现和减轻这种滥用行为,”他总结道。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)