أنشرها:

جاكرتا - أعلنت منصة التواصل الاجتماعي Reddit يوم الثلاثاء 25 يونيو أنها ستقوم بتحديث معايير الويب التي تستخدمها المنصة لمنع جمع البيانات تلقائيا من موقعها على الويب. تم اتخاذ هذه الخطوة بعد أن ذكرت التقارير أن الشركات الناشئة الذكاء الاصطناعي قد انتهكت قواعد جمع المحتوى لأنظمتها.

ويأتي هذا الإعلان في وقت تتهم فيه شركات الذكاء الاصطناعي بالتعدي على المحتوى من الناشرين لإنشاء ملخص الذكاء الاصطناعي دون تقديم الائتمان أو طلب الإذن.

ذكرت Reddit أنها ستقوم بتحديث بروتوكول استبعاد الروبوتات ، أو "robots.txt" ، وهو معيار متلق على نطاق واسع يهدف إلى تحديد أجزاء من الموقع يمكن أن تميزها محركات البحث. كما ستحتفظ الشركة بقيود السرعة ، وهي التقنيات المستخدمة للتحكم في عدد الطلبات من كيان معين ، وستمنع الروبوتات غير المعروفة و crawler من جمع البيانات على موقعها على الويب.

في الآونة الأخيرة ، أصبح robots.txt أداة مهمة يستخدمها الناشرون لمنع شركات التكنولوجيا من استخدام محتواها مجانا لتدريب خوارزميات الذكاء الاصطناعي وإنشاء ملخصات استجابة لبعض استبيانات البحث.

في الأسبوع الماضي ، قالت رسالة إلى الناشرين من قبل شركة ناشئة ترخيص المحتوى TollBit إن العديد من الشركات الذكاء الاصطناعي تعتمد على معايير الويب لجمع البيانات من مواقع النشر.

ويأتي ذلك في أعقاب تحقيق أجرته Wired التي وجدت أن شركة البحث الذكاء الاصطناعي الناشئة Perplexity قد تتفوق على محاولات حظر متقطعي الويب الخاص بها من خلال robots.txt.

في أوائل يونيو ، اتهمت ناشئة وسائل الإعلام التجارية فوربس بيرمسكيتي بالتضليل ضد قصتها الاستقصائية لاستخدامها في أنظمة الذكاء الاصطناعي التوليدية دون توفير الائتمان.

كما ذكرت Reddit يوم الثلاثاء أن الباحثين والمنظمات مثل Internet Archive سيظلون قادرين على الوصول إلى محتواها للاستخدام غير التجاري.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)