أنشرها:

جاكرتا - يدرك معهد تطوير الإدارة (IMD) و TONOMUS أن تطوير الذكاء الاصطناعي (الذكاء الاصطناعي) يدخل مرحلة مثيرة للقلق. والسبب هو أن بعض الذكاء الاصطناعي يمكن أن يعمل بشكل مستقل.

تسمى هذه التكنولوجيا الذكاء الاصطناعي العام (AGI). وفقا ل IMD و TONOMUS ، فإن الذكاء الاصطناعي الذي يعمل بشكل مستقل ولا يتطلب إشرافا بشريا لديه القدرة على تعريض المستقبل للخطر ، لذلك هناك حاجة ماسة إلى الأدوات المناسبة.

لذلك ، أطلقت IMD و TONOMUS ساعة السلامة الذكاء الاصطناعي للتغلب على الآثار الضارة الذكاء الاصطناعي. الحل في شكل ساعة مؤشرة يمكن أن يقرأ مدى خطر تطور AGI. يمكن لساعة السلامة الذكاء الاصطناعي أن تعطي تحذيرا إذا أصبح AGI خارج نطاق السيطرة.

تم تصميم هذا الحل لزيادة الوعي والبناء للمجتمع وصانعي السياسات وقادة الأعمال في مجال أمن الذكاء الاصطناعي. وفقا ل IMD و TONOMUS ، يمكن لساعة السلامة الذكاء الاصطناعي دعم ممارسات السلامة الذكاء الاصطناعي.

صرح مايكل واد ، مدير المركز العالمي لتحويل الأعمال الرقمية في IMD ، أن AGI لديها أربع مراحل من الخطر لا يمكن السيطرة عليها ، وهي المخاطر المنخفضة والمتوسطة والعالية والنقدية. عند قراءة الوضع الحالي الذكاء الاصطناعي ، يدخل العالم مرحلة خطورة عالية.

"نحن نتحول حاليا من مرحلة المخاطر المتوسطة إلى مرحلة المخاطر العالية. عندما تصبح مؤسسة AGI حرجة وغير خاضعة للرقابة ، ستكون كارثة للبشرية. الخطر خطير ، لكنه لم يفت الأوان بعد للعمل" ، أوضح ويد في بيان تلقته VOI.

وتماشيا مع هذا الوضع، أوضح ويد أن تنظيم الذكاء الاصطناعي، وخاصة AGI، ضروري جدا. من خلال وضع اللوائح الصحيحة ، يمكن منع المخاطر السيئة الناجمة عن AGI ويمكن أيضا التغلب على التهديدات التكنولوجية للبشر.

"يمكن للتنظيم الفعال والمتكامل الحد من أسوأ المخاطر لتطوير هذه التكنولوجيا دون الحد من الفوائد. ولهذا السبب، ندعو الجهات الفاعلة الدولية وشركات التكنولوجيا العملاقة إلى اتخاذ الاحتياطات اللازمة".


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)