أ.م.د. حسن محمود موسى أبو المعالي
كلية الصيدلة
يذكر في ما لا يقل عن أربع مقالات أن أداة الذكاء الاصطناعي ChatGPT شاركت كمؤلف شريك فيها، حيث يتسابق الناشرون لتنظيم استخدام هذه الأداة. وقدمت الرسوم البيانية التي تم انشاؤها بالذكاء الاصطناعي ChatGPT وتسببت بإحداث الإثارة في العالم بظهورها الرسمي في الأدب العلمي، كما حصلت على ما لا يقل عن أربعة اعتمادات مؤلف على أوراق بحثية مُنشورة ومُسودّة مُنشورة على الإنترنت. ويتم الآن مناقشة مكانة مثل هذه الأدوات الذكية في الأدب المنشور، وإن كان من المناسب الاستشهاد بالروبوت كمؤلف. ويتسابق الناشرون لإنشاء سياسات للدردشة الروبوتية، التي تم إصدارها كأداة مجانية للاستخدام في نوفمبر من قبل شركة OpenAI في سان فرانسيسكو بولاية كاليفورنيا. حيث يولد جملًا مقنعة عن طريق تقليد الأنماط الإحصائية في قاعدة بيانات ضخمة من النصوص المجمعة من الإنترنت. ويسمح بقيام الروبوت بتعطيل القطاعات بما في ذلك الأكاديمية , وعلى وجه الخصوص، فإنه يثير تساؤلات حول مستقبل مقالات الجامعات وإنتاج الأبحاث.
يتفق الناشرون وخوادم النشر المُسبق الذين تواصلت معهم فريق الأخبار التابع لمجلة Nature على أن الذكاء الاصطناعي مثل ChatGPT لا يستوفي معايير مؤلف الدراسة، لأنه لا يمكنه أن يتحمل مسؤولية محتوى وسلامة الأوراق العلمية. ولكن يقول بعض الناشرون إن مساهمة الذكاء الاصطناعي في كتابة الأوراق يمكن الاعتراف بها في أقسام أخرى غير قائمة المؤلفين.
في حالة واحدة، أخبر محرر Nature أنه تم استشهاد ChatGPT عن طريق الخطأ كمؤلف مشارك، وسوف تقوم المجلة بتصحيح هذا الخطأ.
المؤلف الاصطناعي
ان ChatGPT يعد واحد من 12 مؤلفًا على مسودة بحث عن استخدام الأداة في التعليم الطبي، تم نشرها في مستودع الطبي medRxiv في ديسمبر من العام الماضي. يتم مناقشة فريق المستودع وموقعه الشقيق bioRxiv ما إذا كان من المناسب استخدام أدوات الذكاء الاصطناعي مثل ChatGPT عند كتابة الدراسات وإقرارها، وفقًا لمؤسس المستودع Richard Sever، المدير المساعد لصحافة مختبر Cold Spring Harbor في نيويورك.
نحن بحاجة إلى تمييز الدور الرسمي لمؤلف المدونة العلمية عن المفهوم الأكثر عمومية للمؤلف ككاتب للوثيقة, ويتحمل المؤلفون المسؤولية القانونية عن عملهم، لذلك يجب أن تُدرج فقط الأشخاص كمؤلفين. بالطبع، قد يحاول الأشخاص إدراجه في الدراسة – حدث هذا بالفعل في medRxiv – تمامًا كما فعل الأشخاص بتسجيل الحيوانات الأليفة أو الشخصيات الخيالية كمؤلفين على المقالات الصحفية في الماضي.
تقول الباحثة آلميرا أوسمانوفيتش ثونستروم، عالمة أعصاب في مستشفى صالحرنسكا الجامعي في غوتنبرغ بالسويد، إن المقالة الرابعة المشارك في كتابتها الشات بوت السابق GPT-3 والتي تم نشرها على خادم ما قبل الطباعة الفرنسي HAL في يونيو 2022 سيتم نشرها قريبًا في مجلة محكمة النظير. وتقول أوسمانوفيتش ثونستروم إن مجلةً رفضت المقالة بعد التدقيق بها، لكن المجلة الثانية وافقت عليها مع GPT-3 كمؤلف بعدما أعدت كتابة المقالة تلبيةً لطلبات المراجعين.
سياسات الناشرين
صرح رئيسا تحرير مجلة Nature ومجلة Science لفريق أخبار Nature بأن ChatGPT لا تفي بمعايير الأوّلية. “تحمل الكاتب مسؤولية عن العمل، والتي لا يمكن تطبيقها بشكل فعال على نماذج اللغة الطويلة الشاملة”، وفقًا لما صرح به ماغدالينا سكيبر، رئيسة تحرير مجلة Nature في لندن. ويجب على الكتاب الذين يستخدمون نماذج اللغة الطويلة الشاملة في أي شكل من الأشكال أثناء تطوير وكتابة الورقة العلمية توثيق استخدامهم في الأساليب أو الإقرارات، إذا كان ذلك مناسبًا، على حد قولها.
“معظم الناشرين لن يسمحوا للذكاء الاصطناعي بأن يكون مدرجًا كمؤلف في ورقة بحثية نحن ننشرها، واستخدام النص المولد بواسطة الذكاء الاصطناعي بدون استشهاد مناسب يمكن اعتباره سرقة أدبية”، وفقًا لما صرح به هولدن ثورب، رئيس تحرير عائلة مجلات ساينس في واشنطن العاصمة.
وتقوم دار النشر تايلور آند فرانسيس في لندن بمراجعة سياساتها، حسبما صرحت مديرة الأخلاق والنزاهة في النشر صبينا عالم. وتتفق مع مسؤوليتهم القانونية عن صحة ونزاهة عملهم، وعلى المؤلفين أن يستشهدوا بأي استخدام للنماذج اللغوية الكبيرة في قسم الإقرارات. وحتى الآن، لم تتلق تايلور آند فرانسيس أي مقال يذكر ChatGPT كمؤلف مشارك.
وإن مجلس خوادم المخطوطات المبكرة في مجال العلوم الطبيعية arXiv بدأ في إجراء مناقشات داخلية ويتجه إلى اتباع نهج لاستخدام الذكاء الاصطناعي الإنتاجي، وفقًا لما صرح به المدير العلمي ستاين سيغوردسون، وهو عالم فلك في جامعة بنسلفانيا الدولية في يونيفرستي بارك. يتفق مع أن أداة البرامج لا يمكن أن تكون مؤلفة للتقديم، بسبب عدم إمكانية الحصول على موافقتها على شروط الاستخدام وحق التوزيع. ولم يكتشف سيغوردسون أي مخطوطات مبكرة على arXiv تسرد ChatGPT كمشارك في الكتابة، وقال إن الإرشادات للكتاب ستصدر قريبًا.
يوجد بالفعل إرشادات واضحة بشأن النشر العلمي التي تعني أن ChatGPT لا يجب أن يتم اعتباره مؤلفًا مشاركًا، وفقًا لما صرح به مات هودجكنسون، مدير سلامة البحوث في مكتب سلامة البحث في المملكة المتحدة بلندن، وهو يتحدث بصفته الشخصية.
بالاضافة الى احد الإرشادات هي أن يحتاج المؤلف المشارك لإضفاء “مساهمة علمية مهمة” على المقالة – والأمر قد يكون ممكنًا مع أدوات مثل ChatGPT، ويجب أن يكون لديها القدرة على الموافقة على أن تكون مؤلفًا مشاركًا، وتحمل مسؤولية الدراسة – أو على الأقل، الجزء الذي ساهمت فيه.
يقول جافورونكوف أنه عندما حاول الحصول على ChatGPT لكتابة أوراق تقنية أكثر من منظوره الذي نشره ، فقد فشل. “غالبًا ما يعود ببيانات ليست بالضرورة صحيحة ، وإذا سألته عدة مرات نفس السؤال ، سيعطيك إجابات مختلفة”، يقول. “لذلك سأكون قلقًا بالتأكيد بشأن سوء استخدام النظام في الأوساط الأكاديمية ، لأنه الآن يمكن للأشخاص الذين ليس لديهم خبرة في المجال محاولة كتابة أوراق علمية مستندة عليه بشكل كامل معرضة المحتوى الاكاديمي للخطأ”.
المصادر :
⦁ Nature news https://www.nature.com/articles/d41586-023-00107-z
⦁ Kung, T. H. et al. Preprint at medRxiv https://doi.org/10.1101/2022.12.19.22283643 (2022).
⦁ O’Connor, S. & ChatGPT Nurse Educ. Pract. 66, 103537 (2023).
⦁ ChatGPT & Zhavoronkov, A. Oncoscience 9, 82–84 (2022).
⦁ GPT, Osmanovic Thunström, A. & Steingrimsson, S. Preprint at HAL https://hal.science/hal-03701250 (2022).