イーロンマスク、AIが絶滅論者によって使用される場合、文明は失われる可能性があるという危険性を思い出させます

ジャカルタ - 宇宙旅行から自動運転車まで、イーロンマスクはテクノロジーを絶対的な限界まで引き上げたいという彼の願望について非常にオープンでした。しかし、マスク氏の最近のコメントは、彼が人工知能(AI)に限界を設けていることを示している。

ブレッチリーパークで開催されたAI安全サミットに出席している間、マスクはAIセキュリティが文明の未来にとって不可欠であると主張しました。彼は、英国のリシ・スナク首相の会談に関するツイートを引用しながら、プラットフォームX(以前はTwitter)に主張を投稿しました。

この声明は、マスクがジョー・ローガンのポッドキャストに出演したわずか1日後に出され、彼はAIが「反人道的」になった場合、実存的リスクをもたらす可能性があると主張した。

政治家とテクノロジーのリーダーは、オリバー・ダウデンが最初のAIセキュリティ会議を開始する今日、ブレッチリーパークに集まっています。マスクはその場にいて、プラットフォームXで彼の見解を表明しています。

リシ・スナクのツイートを引用して、マスクは「AIセキュリティは文明の未来にとって重要です」と書いただけです。

リシ・スナクの元の投稿には、「今日、英国で世界的なAI安全サミットが始まりました。これは私たちが達成したいことです:AIリスクについての合意、AIの管理方法についてお知らせし、国際的により良い協力方法について議論し、安全なAIを世界的に良い方向にどのように使用できるかを確認する。

テスラのCEOとXの所有者は、「人類を地球表面での流行と見なす」いくつかの「エクステンション主義者」環境を主張しました。

彼は、昨年ニューヨーク・タイムズ紙にインタビューしたボランティア人絶滅運動の創設者レ・ナイトをこの哲学の一例と呼び、テクノロジー企業で働く一部の人々も同様の考え方を持っていると主張している。ナイトは、人間が地球のためにできる最善のことは、子供を産むのをやめることだと信じています。

「『AIはどのようにして間違っているのか?』と尋ねなければならないが、もしAIが拡張主義者によってプログラムされているなら、その機能は人類の絶滅になるだろう」とマスクは語った。「彼らはその人のようにそれを悪いことさえ受け止めないだろう。(ナイト)

マスク氏はまた、今年のAI開発の6カ月間の延期を求める書簡に署名した。ローガンから手紙について尋ねられたとき、彼は言った:「私は他の誰かが書いた手紙に署名しました、私は人々が本当に立ち止まるとは思わない。そのようなスーパーデジタルインテリジェンスを作るのは危険に思えます。

彼は、AIをプログラミングして「暗黙のうちに」、「人類の絶滅は試さなければならないものである」が、テクノロジーがもたらす「最大の危険」であると信じるリスクを述べた。

「ニューヨークタイムズのトップページにいるその人を連れて行き、サンフランシスコで一般的な彼の哲学を取ると、AIは、彼が文字通り「世界には80億人がいて、何もなければもっと良くなるだろう」と言い、その結果を整理したと結論づけることができます」とマスク氏は述べています。

AIがセキュリティリスクを軽減するような方法で設計できるかどうかを尋ねられたとき、彼は「AIからの最も可能性の高い結果は何ですか?」と言ったら、詳細を述べる可能性が最も高い結果は良い結果だと思いますが、それは確かではありません。AIプログラミングには注意を払い、誤って反人間ではないことを確認する必要があると思います。」

この会議に何を期待すべきかと尋ねられたとき、彼は言った:「私は知らない。私はAIセキュリティについて心配しているだけで、「それについて何をすべきか?私は知らない、(多分)ある種の規制監督を持っている?」

「あなたはただ立ち去って裏庭に核爆弾を作ることはできません、それは法律違反であり、もしそうならあなたは刑務所に投げ込まれるでしょう。これは核爆弾よりも危険かもしれないと思います。私たちは、AIが反人間であることを心配するべきです。それは潜在的な重要なことです」とマスクは言いました。

「まるでジンを瓶から取り除くようなものです。それは、通常、瓶からジンを取り除く人々にとって物語がうまく終わらないと言ったときを除いて、要求を現実のものにすることができる魔法のジンのようなものです」と彼は言いました。