OpenAIとGoogleのDeepMindの従業員はAIリスクを心配しており、より厳しい規制を求めています

ジャカルタ - マイクロソフトが支援するOpenAIやアルファベットのGoogle DeepMindなど、人工知能(AI)企業の従業員と元従業員のグループは、6月4日火曜日、進化するAI技術がもたらすリスクについて懸念を表明した。

OpenAIの従業員11人と元従業員、従業員1人、Google DeepMindの元従業員1人が書いた公開書簡を通じて、AI企業の財政的動機が効果的な監視を妨げていると述べた。

「最初に発注されたコーポレートガバナンス構造がこれを変更するのに十分であるとは考えていません」と手紙は付け加えました。

書簡はさらに、誤った情報の拡散から独立したAIシステムの損失、および「人間の絶滅」につながる可能性のある不正行為の深化に至るまで、規制されていないAIのリスクについて警告しています。

研究者らは、OpenAIやMicrosoftを含む企業の画家の例を発見し、投票関連の偽情報を含む写真を制作している。コンテンツを禁止するポリシーがありますが。

AI企業は、システムの機能と制限について政府と情報を共有する「弱い義務」を負っている、と書簡は述べた。彼らはまた、これらの企業が自発的に情報を共有することは信頼できないと付け加えた。

公開書簡は、人間のようなテキスト、画像、オーディオを迅速かつ安価に生成できるジェネレーティブAIテクノロジーを取り巻くセキュリティ問題を表明する最新のものです。

このグループは、AI企業に対し、現在および以前の従業員がリスクに関する懸念を表明し、批判を禁止する機密保持契約を実施しないためのプロセスを促進するよう促しています。

OpenAIの主張

これとは別に、サム・アルトマンが率いる同社は5月30日木曜日、インターネット上の「不正な活動」のために知性モデルを使用しようとした5つの秘密の影響力作戦を撃退したと述べた。