シェア:

ジャカルタ-この技術のパイオニアの1人であるYoshua Bengioを含む、多くの人工知能の専門家や業界の幹部が、ディープフェイクの作成に関連するより厳しい規制を求める公開書簡に署名しました。これは、社会への潜在的なリスクを指します。

「今日では、ディープフェイクにはしばしば性的イメージ、詐欺、または政治的偽情報が含まれます。人工知能は急速に進化し、ディープフェイクを作りやすくするため、保護が必要です」と、UCバークレーの人工知能研究者であるアンドリュー・クリッチが編集した手紙で、グループは述べています。

ディープフェイクはリアルな画像、オーディオ、ビデオですが、人工知能アルゴリズムによって作成された製造されており、テクノロジーの最新の進歩により、人間によって作成されたコンテンツと区別することがさらに困難になっています。

「ディープフェイクサプライチェーンの混乱」と題された書簡は、ディープフェイク児童ポルノの完全な犯罪化、有害なディープフェイクの意図的に作成または促進する個人に対する刑事罰、および人工知能企業に製品が有害なディープフェイクを作成するのを防ぐよう要求するなど、ディープフェイクを規制する方法に関する勧告を提供します。

2月21日水曜日の朝、学界、楽、政治など様々な業界から400人以上の個人が書簡に署名しました。

署名者の中には、ハーバード大学心理学教授のスティーブン・ピンカー、アルゴリズム・ジャスティス・リーグの創設者ジョイ・ブオラムウィニ、2人のエストニアの元大統領、Googleの研究者、DeepMind、OpenAIの研究者がいました。

人工知能システムがコミュニティを危険にさらさないようにすることは、OpenAIが2022年末にChatGPTを明らかにして以来、規制当局にとって優先事項であり、ユーザーは人間のようにコミュニケーションを取り、他のタスクを実行することによって感銘を受けています。

人工知能のリスクについて、著名な個人からいくつかの警告があり、特にOpenAIのGPT-4人工知能モデルよりも強力なシステムの開発に6ヶ月の遅れを求める昨年イーロンマスクが署名した手紙。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)