雅加达 美国(US)各地的许多工人切换到ChatGPT以协助基本任务。这可以从路透社/社会援助民意调查的调查结果中看出,尽管存在担忧使微软和谷歌等公司减少其使用量。

世界各地的公司都在考虑利用ChatGPT的最佳方式,ChatGPT是一种聊天机器人程序,使用生成人工智能与用户进行对话并回答各种请求。然而,安全公司和其他公司都表示担心,这可能会导致知识产权和战略泄漏。

使用ChatGPT协助日常工作的人的早期例子包括编写电子邮件,总结文档和进行初步研究。

7月11日至17日期间,在人工智能(AI)的在线民意调查中,共有28%的受访者表示,他们定期在工作中使用ChatGPT,而只有22%的受访者表示,他们的雇主明确允许使用此类外部工具。

路透社/社会援助(Reuters/Ipsos)在美国各地对2,625名成年人的民意调查具有可信度间隔,精度衡量,约为2个百分点。

受访者中,多达10%的人表示,他们的老板明确禁止使用外部AI工具,而约25%的人不知道他们的公司是否允许使用该技术。

ChatGPT在2022年11月推出后成为历史上最快增长的应用程序。它引起了喜悦和恐惧,带来了其开发商OpenAI与监管机构的冲突,特别是在欧洲,该公司的大规模数据收集引起了隐私保护者的批评。

来自其他公司的人类检查员可以解读所生成对话之一,研究人员发现类似的人工智能可以复制培训期间吸收的数据,从而为物业信息构成潜在风险。

「人们不明白当使用生成人工智能服务时,数据是如何使用的」企业安全公司Okta客户信任副总裁Ben King说。

“对于这项业务来说非常重要,因为用户没有与许多人工智能的合同 - 因为服务是免费的 - 因此,该公司不会通过其常规评估流程承担风险,”King说。

OpenAI在被问及个人使用对ChatGPT的影响时拒绝置评,但强调该公司最近的一篇博客文章保证公司合作伙伴,除非他们明确允许,否则他们的数据将被用来进一步训练聊天机器人。

当人们使用Google的Bard时,会收集文本、位置和其他用途信息等数据。该公司允许用户从其帐户中删除过去的活动,并要求删除输入AI中的内容。Alphabet Inc.拥有的Google在被要求提供进一步的详细信息时拒绝置评。微软也没有立即回应置评请求。

Tinder的一名美国雇员表示,约会应用程序上的雇员使用ChatGPT进行“无害任务”,例如写电子邮件,尽管该公司正式不允许这样做。

「这是普通的电子邮件。非常无害,例如为团队活动制作有趣的日历邀请,一个人离开时的告别电子邮件......我们也将其用于一般研究,“这位员工说,他不想被命名,因为他不被允许与记者交谈。

员工表示,Tinder有“没有ChatGPT的规则”,但员工仍然使用“一般方式不透露我们在Tinder上所处的任何事情”。

路透社无法独立确认Tinder的员工如何使用ChatGPT。Tinder表示,它已“就安全实践和最佳数据向员工提供定期指导”。

去年五月,三星电子在发现一名员工将敏感代码上传到平台后,禁止其在全球范围内的员工使用ChatGPT和类似的人工智能工具。

「我们正在审查措施,为使用生成人工智能创造安全环境,提高员工生产力和效率,“三星在8月3日的一份声明中表示。但是,在这些步骤完成之前,我们暂时限制通过公司设备使用生成人工智能。

路透社6月报道称,Alphabet还警告员工如何在全球营销该计划时,使用包括谷歌Bard在内的聊天机器人。

谷歌表示,虽然Bard可以提供不必要的代码建议,但有助于编程。他们还表示,他们的目标是对其技术的局限性保持透明。

一般调整

几家公司告诉路透社,它拥抱了ChatGPT和类似平台,同时仍然关注安全性。

“我们已经开始测试和了解人工智能如何提高操作效率,”佐治亚州亚特兰大的一位可口可乐发言人说,并补充说数据仍留在他们的防火墙内。

“内部,我们刚刚推出了可口可乐ChatGPT的公司版本以实现生产力,”发言人说,并补充说可口可乐Colam计划使用AI来提高其团队的有效性和生产力。

Tate & Lyle的首席财务官Dawn Allen与此同时告诉路透社,一家全球原材料制造商公司正在测试ChatGPT,此前“发现了如何安全使用”。

「我们有不同的团队决定如何通过一系列的实验使用它。我们应该在投资者关系中使用它吗?我们应该在知识管理中使用它吗?我们如何利用它来更有效地履行职责?“艾伦说。

一些员工表示,他们完全无法在公司计算机上访问该平台。

“它在办公网络上是完全禁止的,好像它不起作用,”Procter & Gamble的一名雇员说,他想保持匿名,因为他不被允许与媒体交谈。

P&G拒绝置评。路透社无法独立确认P&G员工是否可以使用ChatGPT。

网络安全公司Nominet的首席信息安全官保罗·刘易斯(Paul Lewis)表示,该公司明智地保持警惕。

“每个人都受益于这些能力建设,但这些信息并不完全安全且可以设计出来,”他说,并引用了“恶意命令”,该命令可用于使AI聊天机器人披露信息。

“一般禁令是不合适的,但我们需要谨慎行事,”刘易斯说。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)