ChatGPT在美国工作区的使用量正在增加,尽管存在安全担忧
雅加达 美国(US)各地的许多工人切换到ChatGPT以协助基本任务。这可以从路透社/社会援助民意调查的调查结果中看出,尽管存在担忧使微软和谷歌等公司减少其使用量。
世界各地的公司都在考虑利用ChatGPT的最佳方式,ChatGPT是一种聊天机器人程序,使用生成人工智能与用户进行对话并回答各种请求。然而,安全公司和其他公司都表示担心,这可能会导致知识产权和战略泄漏。
使用ChatGPT协助日常工作的人的早期例子包括编写电子邮件,总结文档和进行初步研究。
7月11日至17日期间,在人工智能(AI)的在线民意调查中,共有28%的受访者表示,他们定期在工作中使用ChatGPT,而只有22%的受访者表示,他们的雇主明确允许使用此类外部工具。
路透社/社会援助(Reuters/Ipsos)在美国各地对2,625名成年人的民意调查具有可信度间隔,精度衡量,约为2个百分点。
受访者中,多达10%的人表示,他们的老板明确禁止使用外部AI工具,而约25%的人不知道他们的公司是否允许使用该技术。
ChatGPT在2022年11月推出后成为历史上最快增长的应用程序。它引起了喜悦和恐惧,带来了其开发商OpenAI与监管机构的冲突,特别是在欧洲,该公司的大规模数据收集引起了隐私保护者的批评。
来自其他公司的人类检查员可以解读所生成对话之一,研究人员发现类似的人工智能可以复制培训期间吸收的数据,从而为物业信息构成潜在风险。
「人们不明白当使用生成人工智能服务时,数据是如何使用的」企业安全公司Okta客户信任副总裁Ben King说。
“对于这项业务来说非常重要,因为用户没有与许多人工智能的合同 - 因为服务是免费的 - 因此,该公司不会通过其常规评估流程承担风险,”King说。
OpenAI在被问及个人使用对ChatGPT的影响时拒绝置评,但强调该公司最近的一篇博客文章保证公司合作伙伴,除非他们明确允许,否则他们的数据将被用来进一步训练聊天机器人。
当人们使用Google的Bard时,会收集文本、位置和其他用途信息等数据。该公司允许用户从其帐户中删除过去的活动,并要求删除输入AI中的内容。Alphabet Inc.拥有的Google在被要求提供进一步的详细信息时拒绝置评。微软也没有立即回应置评请求。
Tinder的一名美国雇员表示,约会应用程序上的雇员使用ChatGPT进行“无害任务”,例如写电子邮件,尽管该公司正式不允许这样做。
「这是普通的电子邮件。非常无害,例如为团队活动制作有趣的日历邀请,一个人离开时的告别电子邮件......我们也将其用于一般研究,“这位员工说,他不想被命名,因为他不被允许与记者交谈。
员工表示,Tinder有“没有ChatGPT的规则”,但员工仍然使用“一般方式不透露我们在Tinder上所处的任何事情”。
路透社无法独立确认Tinder的员工如何使用ChatGPT。Tinder表示,它已“就安全实践和最佳数据向员工提供定期指导”。
去年五月,三星电子在发现一名员工将敏感代码上传到平台后,禁止其在全球范围内的员工使用ChatGPT和类似的人工智能工具。
「我们正在审查措施,为使用生成人工智能创造安全环境,提高员工生产力和效率,“三星在8月3日的一份声明中表示。但是,在这些步骤完成之前,我们暂时限制通过公司设备使用生成人工智能。
路透社6月报道称,Alphabet还警告员工如何在全球营销该计划时,使用包括谷歌Bard在内的聊天机器人。
谷歌表示,虽然Bard可以提供不必要的代码建议,但有助于编程。他们还表示,他们的目标是对其技术的局限性保持透明。
一般调整
几家公司告诉路透社,它拥抱了ChatGPT和类似平台,同时仍然关注安全性。
“我们已经开始测试和了解人工智能如何提高操作效率,”佐治亚州亚特兰大的一位可口可乐发言人说,并补充说数据仍留在他们的防火墙内。
“内部,我们刚刚推出了可口可乐ChatGPT的公司版本以实现生产力,”发言人说,并补充说可口可乐Colam计划使用AI来提高其团队的有效性和生产力。
Tate & Lyle的首席财务官Dawn Allen与此同时告诉路透社,一家全球原材料制造商公司正在测试ChatGPT,此前“发现了如何安全使用”。
「我们有不同的团队决定如何通过一系列的实验使用它。我们应该在投资者关系中使用它吗?我们应该在知识管理中使用它吗?我们如何利用它来更有效地履行职责?“艾伦说。
一些员工表示,他们完全无法在公司计算机上访问该平台。
“它在办公网络上是完全禁止的,好像它不起作用,”Procter & Gamble的一名雇员说,他想保持匿名,因为他不被允许与媒体交谈。
P&G拒绝置评。路透社无法独立确认P&G员工是否可以使用ChatGPT。
网络安全公司Nominet的首席信息安全官保罗·刘易斯(Paul Lewis)表示,该公司明智地保持警惕。
“每个人都受益于这些能力建设,但这些信息并不完全安全且可以设计出来,”他说,并引用了“恶意命令”,该命令可用于使AI聊天机器人披露信息。
“一般禁令是不合适的,但我们需要谨慎行事,”刘易斯说。