جاكرتا - أوضحت Springer Nature ، أكبر ناشر أكاديمي في العالم ، سياستها بشأن استخدام قرطاسية الذكاء الاصطناعي (الذكاء الاصطناعي) في الأوراق العلمية. أعلنوا هذا الأسبوع أن برامج مثل ChatGPT لا يمكن أن تنسب كمؤلف في الأوراق المنشورة في آلاف المجلات.
ومع ذلك ، قال سبرينغر إنه لا توجد مشكلة في استخدام العلماء الذكاء الاصطناعي للمساعدة في كتابة أو توليد أفكار للبحث ، طالما تم التعبير عن هذه المساهمات بشكل صحيح من قبل المؤلفين.
"نشعر بأننا مضطرون لتوضيح موقفنا: لكتابنا ، لمحررينا ، ولأنفسنا" ، قالت ماجدالينا سكيبر ، رئيسة تحرير المنشور الرئيسي ل Springer Nature ، Nature ، ل The Verge.
قال سكيبر: "لقد اقتحم هذا الجيل الجديد من أدوات LLM ، بما في ذلك ChatGPT ، المجتمع حقا ، وهو متحمس حقا ويلعب به ، ولكنه يستخدمه أيضا بطريقة تتجاوز كيفية استخدام الأداة اليوم".
تم تسمية ChatGPT ونماذج اللغة الكبيرة (LLM) سابقا كمؤلفين في عدد صغير من الأوراق المنشورة والمطبوعات المسبقة والمقالات العلمية. ومع ذلك ، فإن طبيعة ودرجة مساهمة هذه الأدوات تختلف من حالة إلى أخرى.
في مقال رأي نشر في مجلة Oncoscience ، تم استخدام ChatGPT للجدل حول تناول دواء معين في سياق رهان باسكال ، مع تسمية النص الذي تم إنشاؤه الذكاء الاصطناعي بوضوح.
ولكن في ورقة ما قبل الطباعة التي تفحص قدرة الروبوت على اجتياز امتحان الترخيص الطبي للولايات المتحدة (USMLE) ، فإن الاعتراف الوحيد بمساهمة الروبوت هو جملة تنص على أن البرنامج "ساهم في كتابة بعض أجزاء هذه المخطوطة".
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)