シェア:

ジャカルタ-4人の人工知能専門家(AI)は、マイクロソフトが支援する最新製品OpenAI、GPT-4のより強力なAI研究の緊急の遅延を要求するイーロンマスク署名された公開書簡で彼らの仕事が引用された後、懸念を表明しました。この手紙は、人間のような会話をしたり、曲を作成したり、長い文書を要約したりできるGPT-4よりも強力なAIシステムの開発に6か月のギャップを求めています。

公開書簡は、「人間と同等の知能」を備えたAIシステムは人類に深刻なリスクをもたらすと述べ、大学の学者や元学生、そして現在OpenAI、Google、およびその子会社であるDeepMindの従業員を含む専門家からの12の研究を引用しています。

前身のChatGPTが昨年発売されて以来、競合企業は同様の製品を発売するために競争してきました。それ以来、米国とEUの市民社会団体は、政策立案者にOpenAI研究を制限するよう求めています。OpenAIはコメントの要請にすぐには応じなかった。

批評家は、主にマスク財団によって資金提供された手紙の背後にある組織であるフューチャーオブライフインスティテュート(FLI)が、人種的偏見や機械にプログラムされた性差別主義者など、AIに関するより差し迫った懸念と比較して、終末論的なシナリオを優先していると非難しています。

引用された研究の中には、以前にGoogleの倫理的AI研究を監督していたマーガレットミッチェルが共著した有名な論文である「確率的オウムの危険性について」がありました。

現在、AI Huagging Face社のチーフ倫理科学者であるミッチェル氏は、この書簡を批判し、ロイターに、「GPT-4よりも強力」と見なされるものは不明であると語った。

「多くの矛盾するアイデアを現実として扱うことにより、この手紙は、FLI支持者に利益をもたらすAIに関する一連の優先事項と物語を確認します」と彼は言いました。「現在の危険を無視することは、私たちの一部にはない特権です。」

彼の共著者であるティムニット・ゲブルとエミリー・M・ベンダーはツイッターでこの手紙を批判し、後者はその主張のいくつかを「クレイジー」と呼んだ。

FLIのマックス・テグマーク社長はロイターに対し、このキャンペーンはOpenAIの企業利益を妨げる試みではないと語った。「これはかなり面白いです。人々が『イーロンマスク競争を遅くしようとしている』と言うのを見ました」と彼は言いました。彼はまた、マスクは手紙を編集する役割を果たさなかったと付け加えた。「それは1つの会社についてではありません。」

コネチカット大学の助教授であるShiri Dori-Hacohenは、AIの現在の使用が気候変動、核戦争、およびその他の実存的脅威に関連する決定に深刻なリスクをもたらすと考えています。

Dori-Hacohen氏は、AIはこれらのリスクを悪化させるために人間レベルの知能を達成する必要はないと述べました。AIによって生み出されるリスクは、実存的なリスクだけでなく、非常に重要なリスクでもありますが、実存的なリスクほど注目されていません。

しかし、公開書簡を発行したフューチャーオブライフインスティテュート(FLI)のテグマークは、AIの短期的リスクと長期的リスクの両方を真剣に受け止めなければならないと述べています。彼はまた、誰かが公開書簡で言及されている場合、それは彼らが手紙の内容全体に同意するということではなく、手紙の特定の文に同意することを意味するだけだと付け加えました。

公開書簡はまた、AIの生成ツールがインターネットを「プロパガンダと嘘」で氾濫させるために使用される可能性があると警告しています。しかし、Dori-Hacohenは、Twitterプラットフォームを購入する際のイーロンマスクの行動が、プラットフォームでの誤った情報の普及に悪影響を及ぼし、誤った情報や偽情報を研究する研究者にとって困難であると感じました。

Twitterはまた、研究データにアクセスするための新しいコスト構造をまもなく開始する予定ですが、これはこのトピックに関する研究を妨げる可能性があります。このニュースが書かれるまで、マスクもツイッターも専門家からの批判にまだ答えていませんでした。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)