シェア:

ジャカルタ 米国(US)の多くの労働者は、基本的なタスクを支援するためにChatGPTに切り替えています。これはロイター/イプソスの世論調査の結果に見られるが、MicrosoftやGoogleなどの企業がその使用を減らしたという懸念がある。

世界中の企業は、人工知能を使用してユーザーとの会話を実行し、さまざまな要求に応えるチャットボットプログラムであるChatGPTを活用する最善の方法を検討しています。ただし、セキュリティ会社やその他の企業は、これが知的財産や戦略の漏洩につながる可能性があるという懸念を表明しています。

ChatGPTを使用して日常業務を支援する人々の例としては、電子メールの編集、ドキュメントの要約、予備調査の実施などがあります。

7月11日から17日までのオンライン人工知能(AI)世論調査の回答者の28%が、職場でChatGPTを定期的に使用していると答えましたが、雇用主がそのような外部ツールの使用を断固として許可していると答えたのはわずか22%でした。

米国全土の2,625人の成人に対するロイター/イプソスの世論調査では、信頼性インターバル、正確さ尺度、約2%ポイントがあります。

調査対象者の10%が、上司が外部のAIツールの使用を明示的に禁止していると答えましたが、約25%が自社がこのテクノロジーの使用を許可しているかどうかを知りませんでした。

ChatGPTは、2022年11月の発売に続いて史上最も急速に成長したアプリです。それは喜びと恐怖を生み出し、その開発者であるOpenAIを、特に同社の大量データ収集がプライバシー保護者から批判を集めているヨーロッパの規制当局と対立させました。

他の企業の人間の検査官は、その結果生じた会話の1つを読み取ることができ、研究者らは、同様の人工知能がトレーニング中に吸収されたデータを再現し、財産情報に潜在的なリスクをもたらす可能性があることを発見しました。

「人々は、生成人工知能サービスを使用するときにデータがどのように使用されるかを理解していません」と、企業セキュリティ会社Oktaの顧客信頼担当バイスプレジデントであるBen King氏は述べています。

「ユーザーは多くのAIと契約を結んでいないため、サービスが無料であるため、企業は通常の評価プロセスを通じてリスクを冒さないため、ビジネスにとってこれは非常に重要です」とキング氏は述べています。

OpenAIは、個々の使用がChatGPTに与える影響について尋ねられたとき、コメントを拒否したが、明示的な許可を与えない限り、企業パートナーにデータがさらなるチャットボットの訓練に使用されないことを保証する同社の最近のブログ投稿を強調した。

人々が Google のバーツを使用する場合、テキスト、場所、その他の使用情報などのデータが収集されます。同社は、ユーザーが自分のアカウントから過去のアクティビティを削除し、AI に含まれるコンテンツを削除するよう要求することを許可しています。Alphabet Inc. が所有する Google は、詳細を尋ねられたとき、コメントを拒否した。マイクロソフトもコメントの要請にすぐには応じなかった。

Tinderの米国に本拠を置く従業員は、出会い系アプリの従業員がChatGPTを電子メールの作成などの「無害なタスク」に使用していると述べたが、同社は公式にそれを許可していなかった。

「これは普通の電子メールです。チームイベントに面白いカレンダー招待状を作成したり、誰かが去ったときに別れの電子メールを作成したりするなど、非常に危険ではありません...私たちはまた、一般的な研究にそれを使います」と、ジャーナリストと話すことを許されなかったので、名前を挙げられたくなかった従業員は言いました。

従業員は、Tinderには「ChatGPTなしのルール」があると述べましたが、従業員は依然として「Tinderにいる私たちについて何も明らかにしない一般的な方法」でそれを使用しました。

ロイターは、Tinderの従業員がChatGPTをどのように使用しているかを独自に確認することができませんでした。Tinderは、「セキュリティとデータのベストプラクティスについて従業員に定期的なガイダンス」を提供していると述べた。

昨年5月、サムスン電子は、従業員がプラットフォームに機密コードをアップロードしたことを発見した後、世界中のスタッフがChatGPTおよび同様のAIツールを使用することを禁止しました。

「私たちは、従業員の生産性と効率を高めるジェネレーティブAIの使用のための安全な環境を作り出すための措置を見直しています」とサムスンは8月3日の声明で述べました。しかし、これらの措置が準備されるまで、私たちは一時的に会社のデバイスを介してジェネレーティブAIの使用を制限します。

ロイター通信は6月、アルファベットがGoogleのバーツを含むチャットボットをどのように使用しているかについて従業員に警告し、同時にプログラムをグローバルに販売していると報じた。

Googleによると、Bernは不要なコードアドバイスを提供することはできますが、プログラマーにも役立ちます。彼らはまた、技術の限界について透明性を保つことを目指していると述べた。

ウムセクションのキャンセル

いくつかの企業がロイターに、セキュリティに注意を払いながら、ChatGPTや同様のプラットフォームを受け入れていると語った。

「私たちは、AIが運用効率をどのように改善できるかについてのテストと学習を開始しました」とジョージア州アトランタのコカコーラの広報担当者は述べ、データはファイアウォール内に残っていると付け加えました。

「社内では、生産性のためにコカ・コーラのChatGPTのエンタープライズバージョンを立ち上げたばかりです」と広報担当者は述べ、コカ・コラメはAIを使用してチームの有効性と生産性を向上させる予定であると付け加えました。

一方、Tate & Lyleの最高財務責任者(CFO)であるDawn Allen氏はロイターに対し、世界の原材料メーカーは「安全に使用する方法を見つけた」後、ChatGPTをテストしていると語った。

「私たちには、一連の実験を通じてそれをどのように使用したいかを決定するさまざまなチームがあります。投資家関係で活用すべきですか?知識管理で使用する必要がありますか?どのようにしてタスクをより効率的に実行できるでしょうか」とアレンは言いました。

一部の従業員は、会社のコンピュータ上のプラットフォームにアクセスできないと言いました。

「機能しないなど、オフィスネットワークでは完全に禁止されています」と、報道機関と話すことを許されなかったために匿名を保ちたかったPro karakter & Gambleの従業員は語った。

P&Gはコメントを控えた。ロイター通信は、P&Gの従業員がChatGPTを使用できないかどうかを独自に確認することができなかった。

サイバーセキュリティ企業Nominetの最高情報セキュリティ責任者であるPaul Lewis氏は、同社は警戒するのが賢明だと述べた。

「誰もがそのような能力の向上から恩恵を受けていますが、その情報は完全に安全ではなく、外部に設計されています」と彼は言い、AIチャットボットに情報を開示させるために使用できる「悪意のあるコマンド」を引用しました。

「一般的な禁止は適切ではありませんが、慎重に実行する必要があります」とルイスは言いました。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)