シェア:

ジャカルタ-中国は、AIモデルのトレーニングに使用すべきではないソースのブラックリストを含む、生成人工知能に裏打ちされたサービスを提供する企業に提案されたセキュリティ要件を発表しました。

OpenAIのChatGPTチャットボットの成功のおかげで人気のあるジェネレーティブAIは、過去のデータから行動を起こし、トレーニングに基づいてテキストや画像などの新しいコンテンツを作成する方法を学びます。

この要件は、10月11日水曜日に中国サイバー行政(CAC)、産業情報技術省、警察の職員を含む国家情報セキュリティ標準化委員会によって発表されました。

委員会は、公開されている生成AIモデルのトレーニングに使用されるコンテンツのセキュリティ評価を実施することを提案しており、「違法で有害な情報の5%以上」を含むコンテンツはブラックリストに載せられます。

情報には、「テロリズムの擁護」または暴力、「社会主義システムの転覆」、「国家のイメージの損なう」、「国家の統一と社会の安定の混乱」が含まれます。

この規制はまた、中国のインターネット上で検閲された情報は、モデルのトレーニングに使用すべきではないと述べています。

この発行は、規制当局が検索エンジン大手のBaiduを含むいくつかの中国のハイテク企業が、ジェネレーティブAI対応チャットボットを一般に公開することを許可してからわずか1ヶ月以上経過しました。

CACは4月以降、ジェネレーティブAI対応サービスを一般に公開する前に、当局にセキュリティ評価を申請することを望んでいると述べている。

7月、サイバー領域の規制当局はサービスを規制する措置を発表しましたが、アナリストは4月の草案で概説された措置よりもはるかに軽いと言います。

先週水曜日に発表された草案の安全要件では、このAIモデルを訓練する組織は、生体認証データを含む個人情報を訓練目的で使用する個人の同意を求める必要があります。また、知的財産権侵害を回避する方法に関するガイドラインも詳述しています。

世界中の国々が、この技術のルールを定めるのに苦労しています。中国はAIを米国と競争したい分野と見なしており、2030年までにこの分野で世界のリーダーになるという目標を設定しています。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)