أنشرها:

جاكرتا - خلص فريق من الباحثين من OpenAI وكامبريدج وأكسفورد والعديد من الجامعات والمؤسسات الأخرى إلى أن الطريقة الوحيدة لمكافحة الاستخدام السيء للذكاء الاصطناعي (الذكاء الاصطناعي) ربما تكون الاستمرار في تطوير الذكاء الاصطناعي الأقوى وتسليمه للحكومة.

في ورقة بحثية بعنوان "قوة الحوسبة ثم حوكمة الذكاء الاصطناعي" ، يحقق العلماء في التحديات الحالية والإمكانات المستقبلية المشاركة في تنظيم استخدام وتطوير الذكاء الاصطناعي.

الحجة الرئيسية في هذه الورقة هي أن الطريقة الوحيدة للتحكم في من لديه الوصول إلى أقوى أنظمة الذكاء الاصطناعي في المستقبل هي التحكم في الوصول إلى الأجهزة اللازمة لتدريب وتشغيل هذه النماذج.

في هذا السياق ، يشير "compute" إلى الأجهزة الأساسية اللازمة لتطوير الذكاء الاصطناعي مثل GPU و CPU.

يقترح الباحثون أن أفضل طريقة لمنع الناس من استخدام الذكاء الاصطناعي للتسبب في الضرر هي قطع وصولهم من مصدره. وهذا يعني أن الحكومة بحاجة إلى تطوير نظم لمراقبة تطوير ومبيعات وعمليات الأجهزة التي تعتبر ضرورية لتطوير الذكاء الاصطناعي المتقدم.

ومع ذلك ، تظهر الدراسة أيضا أن النهج الساحق أو غير المناسب في تنظيم الوصول إلى الأجهزة يجلب مخاطر كبيرة من حيث الخصوصية والآثار الاقتصادية ومركزية السلطة.

وأشار الباحثون أيضا إلى أن التقدم المحرز مؤخرا في التدريب الفعال في مجال الاتصالات يمكن أن يؤدي إلى استخدام "حكام" لامركزية لتدريب نماذج الذكاء الاصطناعي وبنائها وتشغيلها. وهذا قد يجعل من الصعب على الحكومات العثور على الأجهزة المرتبطة بجهود التدريب غير القانونية ومراقبتها وإغلاقها.

ووفقا للباحثين، فإن هذا قد يجعل الحكومة ليس لديها خيار سوى اتخاذ موقف من السباق على الأسلحة ضد الاستخدام غير القانوني للذكاء الاصطناعي. "يجب على الناس استخدام حسابات أقوى ويمكن تنظيمها في الوقت والحكمة لتطوير الدفاع ضد المخاطر الجديدة التي تشكلها الحسابات غير المنتظمة."


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)