جاكرتا - إدراكا منها للعديد من عمليات إساءة الذكاء الاصطناعي التوليدية كأداة للاعتداء الجنسي على الأطفال والاستغلال عليهم ، فإن بعض قادة الذكاء الاصطناعي المؤثرين في العالم ملتزمون بحماية سلامة الأطفال.
بالتعاون مع Thorn و All Tech Is Human و Amazon و Anthropic و Civitai و Google و Meta و Metaphysic و Microsoft و Mistral الذكاء الاصطناعي و OpenAI و Stability الذكاء الاصطناعي ملتزمون علنا بمبادئ السلامة من حيث التصميم.
ومن خلال هذه المبادئ، تلتزم الشركات بحماية الأطفال من إنشاء ونشر مواد التحرش الجنسي بالأطفال التي تنتجها الذكاء الاصطناعي (AIG-CSAM) وغيرها من العنف الجنسي.
في يوم الثلاثاء 23 أبريل ، أصدرت Thorn و All Tech Is Human ورقة عمل بعنوان "السلامة من خلال التصميم للذكاء الاصطناعي التوليدي: منع التحرش الجنسي بالأطفال" ، والتي قدمت توصيات للشركات التي تصنع أدوات الذكاء الاصطناعي ومنصات وسائل التواصل الاجتماعي وشركات الاستضافة والمطورين لاتخاذ خطوات لمنع استخدام الذكاء الاصطناعي التوليدي على الأطفال.
تتمثل إحدى توصياتها في مطالبة الشركات باختيار مجموعات البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي بحذر وتجنب مجموعات البيانات التي تحتوي فقط على مواد الاعتداء الجنسي على الأطفال (CSAM) ، ولكن أيضا المحتوى الجنسي للبالغين بسبب الميل التوليدي الذكاء الاصطناعي إلى الجمع بين المفهومين.
ويمثل وعدهم سابقة متطورة للصناعة ويمثلون قفزة كبيرة في الجهود المبذولة لدفاع الأطفال عن التحرش الجنسي إلى جانب تطور الذكاء الاصطناعي التوليدي في المستقبل.
وكجزء من التزامها بهذه المبادئ، وافقت الشركة أيضا على نشر وتبادل وثائق شفافة حول تقدمها في تنفيذ هذه المبادئ.
من خلال دمج مبادئ السلامة من حيث التصميم في تقنياتها ومنتجات الذكاء الاصطناعي التوليدية ، لا تحمي هذه الشركات الأطفال فحسب ، بل تقود أيضا الابتكار الأخلاقي الذكاء الاصطناعي.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)