G7、人工知能開発の倫理規定に合意
ジャカルタ - G7として知られる先進7カ国のグループは、10月30日月曜日、高度な人工知能(AI)システムを開発する企業向けの倫理規定を作成することに合意した。 ロイターが入手したG7文書で明らかになった。 この合意は、G7 諸国の政府が AI テクノロジーのリスクと潜在的な悪用を軽減する方法を模索していたために行われました。
文書には、プライバシーとセキュリティリスクへの懸念がある中、この自主的な行動規範が主要国におけるAIガバナンスの重要なマイルストーンとなることが示されている。
カナダ、フランス、ドイツ、イタリア、日本、英国、米国と欧州連合からなる経済7カ国グループ(G7)の首脳は、5月に「広島」と名付けられた閣僚フォーラムでこのプロセスを開始した。 AIプロセス。」
G7文書によると、11項目の行動規範は世界中で安全、安心、信頼できるAIを促進することを目的としており、最先端のAIシステムを開発する組織による行動のための自主的な指針を提供することになる。 これらには、最先端のベース モデルと最先端の生成 AI システムが含まれます。
このコードは、これらのテクノロジーによってもたらされるリスクと課題を利用し、対処するのに役立つことを目的としています。
また読む:
この規範は、企業が AI のライフサイクル全体を通じてリスクを特定、評価、対処するための適切な措置を講じること、また AI 製品が市場に出た後のインシデントや悪用のパターンに対処することを奨励しています。
企業は、AI システムの機能、制限、使用法、悪用に関する公開レポートを作成し、強力なセキュリティ管理にも投資する必要があります。
欧州連合は、この新興テクノロジーを厳しい AI 法で規制する先駆者です。 一方、日本、米国、東南アジア諸国は、経済成長促進に関して欧州連合(EU)圏よりも緩和的なアプローチをとっている。
欧州委員会のデジタル担当責任者、Vera Jourovaは先月、日本の京都で開かれたインターネットガバナンスフォーラムで講演し、行動規範はセキュリティを確保するための強力な基盤であり、規制が施行されるまでの橋渡しとなると述べた。