英国は人工知能の使用を監督するための新しい原則を適用します

ジャカルタ - 英国は9月18日(月)に、人工知能(AI)モデルが消費者や企業に害を及ぼす多くのテクノロジー企業によって制御されるのを防ぐために設計された原則を発表しました。英国政府は、説明責任と透明性の必要性を強調しています。

英国の独占禁止法監視機関である競争市場監視機構(CMA)は、世界中の他の当局と同様に、イノベーションを妨げることなく、AIの潜在的な否定的な結果のいくつかを制御しようとしています。

彼らが言及した7つの原則は、開発者に責任を負わせることによって、Big Techが閉鎖されたプラットフォーム内にテクノロジーを結びつけるのを防ぎ、製品合併などの反競争的行動を止めることによって、ChatGPTのような基本的なモデルを規制することを目的としています。

CMAのサラ・カーデル最高経営責任者(CEO)は月曜日、この技術が生産性を向上させ、何百万もの日常業務をより簡単にするための真の可能性があると述べたが、この前向きな未来は担保と見なされるべきではない。

彼は、AIを使用することが、経済全体で完全な利益が感じられるのを妨げる市場力を持つ一部のプレーヤーによって制御されるリスクがあると述べた。

「だからこそ、私たちは今日、これらの新しい原則を提案し、競争を促進し、消費者を保護する方法で開発された基本モデルの開発と使用を確実にするために、幅広いエンゲージメントプログラムを開始しました」と彼は言いました。

CMAが提案した原則は、英国が世界的なAI安全会議を主催する6週間前に発表され、今後数ヶ月でデジタル市場を監視する新しい力を想定したときに、AIへのアプローチの基礎となるでしょう。

彼らは、Google、Meta、OpenAI、Microsoft、NVIDIA、Anthropicなどの主要なAI開発者や、政府、学界、その他の規制当局から意見を求めると述べた。

提案された原則には、キーインプットへのアクセス、オープンおよびクローズドインプットを含むビジネスモデルの多様性、および企業が複数のモデルを使用する柔軟性も含まれます。

英国は3月、新しい規制当局を設立するのではなく、人権と健康と安全を監督するCMAと他の機関との間でAI規制の責任を分担することを選択しました。

米国はAIを規制するための可能な規則を検討しており、主要な7つの経済大国のデジタル大臣は4月に、環境をオープンに保つ「リスクベースの」規制を採用することに合意しました。