シェア:

ジャカルタ-児童の性的虐待および取のツールとしてのジェネレーティブAIの乱用の数を認識し、世界の一部の影響力のあるAIリーダーは子供たちの安全を保護することに取り組んでいます。

Thorn および All Tech Is Human, Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft,前身AI, OpenAI, and stability AI と協力して、設計による安全の原則に公にコミットしています。

これらの原則により、両社は、AI(AIG-CSAM)やその他の性的暴力によって生成された児童性的虐待資料の作成と配布から子供を保護することにコミットしています。

4月23日火曜日、ThornとAll Tech Is Humanは、「生成AIの設計による安全:子供の性的虐待の防止」と題する論文を発表し、AIツール、ソーシャルメディアプラットフォーム、ホスティング会社、開発者を作成する企業に、ジェネレーティブAIが子供に害を及ぼすために使用されるのを防ぐための措置を講じるよう勧告しています。

推奨事項の1つは、AIモデルを慎重にトレーニングするために使用されるデータセットを選択し、児童性的虐待(CSAM)素材のみを含むデータセットだけでなく、これら2つの概念を組み合わせるジェネレーティブAIの傾向があるため、成人の性的コンテンツも避けるように企業に依頼することです。

彼らの約束は業界の画期的な前例となり、将来的には生成AIが進化するにつれて、子供を性的虐待から守るための努力の大幅な飛躍を表しています。

これらの原則へのコミットメントの一環として、当社はまた、これらの原則の実施における進捗状況に関する文書を透明に公開および共有することに合意しました。

設計による安全性の原則をジェネレーティブAIテクノロジーと製品に統合することで、これらの企業は子供を保護するだけでなく、倫理的なAIイノベーションをリードしています。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)