أنشرها:

جاكرتا - الذكاء الاصطناعي (الذكاء الاصطناعي) الذي صنعته OpenAI ، يقال إن ChatGPT يخدع الباحثين بملخصات علمية مزيفة ، حيث يتم جعلهم يعتقدون أنهم يقرؤون نصا حقيقيا كتبه البشر.

استخدم فريق من الباحثين بقيادة جامعة نورث وسترن أداة توليد النص لإنشاء 50 ملخصا بناء على عناوين أوراق علمية حقيقية بأسلوب خمس مجلات طبية مختلفة.

الملخص هو ملخص أنيق يضاف في الجزء العلوي من ورقة بحثية لإعطاء صورة شاملة لما تتم دراسته.

علاوة على ذلك ، تم تدريب الملخص على الاختيار من المجلة الطبية البريطانية (BMJ) و Nature Medicine. بعد ذلك ، سجل أربعة باحثين لإجراء الاختبار ، وتم تقسيمهم إلى مجموعتين من اثنين.

تم استخدام قلب عملة إلكترونية لتحديد ما إذا كان الملخص الأصلي أو المزيف الذي تم إنشاؤه بواسطة الذكاء الاصطناعي قد تم إعطاؤه لمراجع واحد في كل مجموعة. يتم إعطاء باحث واحد الملخص الأصلي ، ويتم إعطاء الباحث الثاني ملخصا مزيفا ، والعكس صحيح. الجميع يراجع 25 ملخصا علميا.

نتيجة لذلك ، لم يتجاوز نص الكمبيوتر أجهزة الكشف عن مكافحة الانتحال فحسب ، بل لم يتمكن الباحثون الحقيقيون من العثور على المزيف.

حدد المراجعون البشريون بشكل صحيح 68 بالمائة فقط من ملخصات ChatGPT و 86 بالمائة من الملخصات الأصلية. تعتقد مجموعة الأبحاث الطبية أن 32 في المائة من الملخصات التي تم إنشاؤها بواسطة الذكاء الاصطناعي حقيقية و 14 في المائة من الملخصات الحقيقية مزيفة.

"مراجعونا أنه كان من الصعب للغاية التمييز بين الملخصات الحقيقية والمزيفة. كانت الملخصات التي تم إنشاؤها بواسطة ChatGPT مقنعة للغاية ، حتى أنها عرفت حجم مجموعة المرضى عند العثور على الأرقام ، "قالت قائدة الدراسة كاثرين جاو في جامعة نورث وسترن في شيكاغو ، إلينوي. مترو الثلاثاء 17 يناير.

وأضاف: "يكتب ChatGPT ملخصات علمية ذات مصداقية ، حتى مع البيانات التي تم إنشاؤها بالكامل ، كما يشرحون في مرحلة ما قبل الدراسة".

وأضاف قاو أن الملخصات التي ينشئها ChatGPT حقيقية دون أي انتحال يمكن اكتشافه ولكن يمكن تحديدها غالبا باستخدام كاشفات الإخراج الذكاء الاصطناعي والمراجعين البشريين المتشككين.

"يجب أن يتكيف التقييم المجرد للمجلات والمؤتمرات الطبية مع السياسات والممارسات للحفاظ على معايير علمية صارمة. ونوصي بإدراج كاشفات المخرجات الذكاء الاصطناعي في عملية التحرير والكشف الواضح عما إذا كانت هذه التكنولوجيا مستخدمة".

وأضاف: "لم يتم بعد تحديد الحدود الأخلاقية والمقبولة لاستخدام نماذج لغوية كبيرة للمساعدة في الكتابة العلمية".

يتم تدريب نماذج اللغات الكبيرة مثل ChatGPT على كميات كبيرة من النص الذي يتم استرداده من الإنترنت. يتعلمون بناء النص من خلال التنبؤ بالكلمات التي من المرجح أن تظهر في جملة معينة ، ويمكنهم كتابة بناء جملة دقيق نحويا.

مما لا يثير الدهشة ، حتى الأكاديميين يمكن خداعهم للاعتقاد بأن التجريدات التي تم إنشاؤها الذكاء الاصطناعي حقيقية. نموذج اللغة الكبير جيد في إنتاج نصوص ذات هياكل وأنماط واضحة. غالبا ما تتبع الملخصات العلمية تنسيقا مشابها ، ويمكن أن تكون غامضة تماما.

يعتقد قاو أن أدوات مثل ChatGPT ستسهل على مصانع الورق ، التي تستفيد من نشر الدراسات ، إنتاج أوراق علمية مزيفة.

وقال قاو: "إذا حاول أشخاص آخرون بناء علمهم من هذه الدراسات الخاطئة، فقد يكون ذلك خطيرا للغاية".


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)