ジャカルタ - 10月24日火曜日、3人のチューリング賞受賞者、ノーベル賞受賞者、および12人以上の有名なAI学者が発表した論文は、人工知能の研究開発に関与する企業や政府が、これらのシステムのセキュリティと倫理的使用を確保するために資金の少なくとも3分の1を割り当てるべきであることを示唆しています。
この論文は、ロンドンで開催される国際AI安全サミットの1週間前に発表され、AIリスクに対処するために政府と企業が講じるべき措置を概説しています。
「政府はまた、予測可能で合理的に防止可能な最先端のAIシステムによる損害について、企業が法的責任を負うことを課すべきである」と、3人のチューリング賞受賞者、ノーベル賞受賞者、および12人以上の有名なAI学者が書いた論文には書かれた声明がある。
現在、AIセキュリティに重点を置いた広範な規制はなく、政策立案者がまだいくつかの問題で合意していないため、欧州連合による最初の一連の規制はまだ法律になっていません。
「最新のAIモデルは強すぎており、民主的な精査なしには成長できないほど重要です」と、AIの父として知られる3人の人のうちの1人である吉華ベンジオは言いました。
「AIは予防措置よりもはるかに速く進化するため、AIセキュリティへの投資は迅速に行う必要があります」とBengio氏は述べています。
この論文の著者には、ジェフリー・ヒントン、アンドリュー・ヤオ、ダニエル・カーネマン、ドーン・ソング、ユバル・ノア・ハラリが含まれます。
OpenAIからジェネレーティブAIモデルが発売されて以来、イーロンマスクなどの著名な学者やCEOはAIリスクについて警告してきました。彼らは、強力なAIシステムの開発を6か月間中止するよう求めました。
一部の企業は、コンプライアンスの高コストと不均衡な責任のリスクに直面すると述べて、これに反対しています。
「同社は、『規制はイノベーションを抑圧する』という規制を遵守するのが難しすぎると不平を言うだろう」と英国のコンピュータ科学者スチュアート・ラッセルは語った。サンドイッチストアには、AI企業に適用されるよりも多くの規制が適用されています。」
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)