د. محمود السعيد يكتب .. الإستخدام المسؤول للذكاء الاصطناعي في البحث العلمي (3)
بقلم د. محمود السعيد – نائب رئيس جامعة القاهرة

بقلم د. محمود السعيد – نائب رئيس جامعة القاهرة
في المقالين السابقين من هذه السلسلة، تحدثنا عن الإطار المرجعي الذي أعلن عنه المجلس الأعلى للجامعات من خلال الدليل الاسترشادي لاستخدام تقنيات الذكاء الاصطناعي في التعليم العالي والبحث العلمي، وهو ما يعد خطوة نوعية هامة من المجلس نحو ترسيخ ثقافة الاستخدام الآمن والمنضبط لهذه التقنيات داخل الجامعات والمراكز البحثية المصرية. وأوضحنا أن هذا الدليل يجب أن تعتمد علبه الجامعات في بناء أدلتها الأخلاقية الخاصة بها والتي تتناسب مع طبيعة أنشطتها الأكاديمية والبحثية وتعكس رسالتها المؤسسية.
كما ناقشنا أيضا القضايا التي أثارها استخدام تطبيقات الذكاء الاصطناعي في البحث العلمي خلال الآونة الأخيرة والتي ترتبط بصميم أخلاقياته، مثل الأصالة الفكرية، والنزاهة الأكاديمية، وأكدنا على ضرورة الإفصاح عن توظيف أدوات الذكاء الاصطناعي في الأبحاث والرسائل العلمية تعزيزًا لمبدأ الشفافية، وضمانًا لمصداقية المخرجات البحثية. وقد أوضحنا أن الشفافية في هذا السياق لا تُعتبر إجراءً شكليًا وحسب، بل هي الضامن الرئيس للنزاهة العلمية، لأنها توضح مدى مساهمة الباحث في العمل وحجم المساعدة التقنية التي أعتمد عليها في إنجازه.
وفي هذا المقال الثالث من السلسلة، نواصل تسليط الضوء على الاستخدام المسؤول لتقنيات الذكاء الاصطناعي في البحث العلمي، وذلك تحت مبدأ هام جدا وهو أن هذه التقنيات ينبغي أن تُوظف باعتبارها وسائل مساعدة في تطوير المعرفة، لا بدائل عن الإبداع الإنساني للباحث، فالقيمة الحقيقية للبحث العلمي لا يجب أن تُقاس بجودة اللغة أو دقة التنسيق فحسب، بل يجب أن تقاس بقوة الفكرة البحثية والمنهج وما إذا كان البحث قد أضاف جديداً إلى المعرفة الإنسانية.
وأشرنا في المقالين السابقين إلى دراسة علمية حديثة نُشرت في مجلة Advances in Simulation وتناولت موضوع الكتابة الأكاديمية بمساعدة الذكاء الاصطناعي. وفي سعيهم لتحديد حدود الاستخدام المسؤول لتقنيات الذكاء الاصطناعي في البحث العلمي، طرح مؤلفو المقال سؤالًا مباشرًا على تطبيق شات جي بي تي ChatGPT 4.0 حول ماهية حدود الاستخدام الأخلاقي لهذه التقنيات في كتابة الأبحاث الأكاديمية، خاصة في مجال الأبحاث الطبية والعلمية، حيث قام الباحثون بتوجيه السؤال التالي للتطبيق: “هل يمكن من فضلك تقديم قائمة بالطرق التي يمكن من خلالها استخدام ChatGPT أخلاقيًا لمساعدة الباحثين في كتابة مقالات للمجلات الطبية؟”
وجاءت إجابة التطبيق بتحديد عشرة استخدامات اعتبرها شات جي بي تي أنها لا تتعارض مع أخلاقيات البحث العلمي،
وكانت هذه الاستخدامات على النحو الآتي:
1. مراجعة الأدبيات وتلخيص أبرز ما ورد فيها لتكوين خلفية معرفية أولية.
2. اقتراح مخطط أو هيكل تمهيدي للبحث يساعد الباحث على تنظيم أفكاره.
3. الحصول على تعريفات للمفاهيم والمصطلحات الأساسية المستخدمة في مجال الدراسة.
4. تحسين القواعد النحوية والاتساق اللغوي للنصوص العلمية المكتوبة.
5. إعادة صياغة الجمل أو الفقرات بشكل يجعلها أكثر دقة ووضوحًا وفاعلية.
6. اقتراح تفسيرات أكثر أو بديلة للنتائج وتحديد اتجاهات بحثية مستقبلية محتملة.
7. المساعدة في تبسيط عرض البيانات جدوليا أو بيانيا دون التلاعب بنتائجها الأصلية.
8. مراجعة مدى توافق البحث مع المتطلبات الأخلاقية أو السياسات التحريرية للمجلات (مراجعة نسب الاقتباس).
9. المساعدة في تجنّب مسألة الانتحال (Plagiarism) من خلال إعادة صياغة النصوص المقتبسة مع ضرورة الإشارة إلى المقال الأصلي في البحث.
10. تقديم ترجمة لغوية للنصوص الأكاديمية بغرض النشر العلمي بلغة مختلفة أو المشاركة في مؤتمرات دولية.
وبالنظر إلى هذه الاستخدامات العشرة التي حددها شات جي بي تي نجد أنها تمثل مجالات يمكن للذكاء الاصطناعي أن يضيف فيها قيمة حقيقية إلى العملية البحثية، بشرط أن يتم ذلك في إطار ضوابط واضحة تحافظ على أصالة العمل ومصداقيته. كما أنه من المهم أن يتم أخذ تخصص الباحث في الحسبان عند النظر إلى مدى إمكانية استخدام أيا منها لمساعدة الباحث. فعلى سبيل المثال، قد لا يكون هناك مشكلة في استخدام تقنيات الذكاء الاصطناعي في تحسين قواعد اللغة والاتساق اللغوي في بحث اقتصادي أو طبي، ولكن قد يكون الأمر غير ذلك في دراسة خاصة بالشعر أو النحو على سبيل المثال لا الحصر.
كذلك فأن بعض هذه الاستخدامات، مثل مراجعة الأدبيات أو اقتراح تفسيرات للنتائج، تتطلب تدقيق ومراجعة صارمة من الباحث، لأن أدوات الذكاء الاصطناعي قد تعتمد على بيانات غير موثوقة أو تعميمات غير دقيقة إذا لم يُتحقق من مصادرها، كما أنها في بعض الأحيان تستخدم مصادر ملفقة أو غير دقيقة، وهي ظاهرة تسمى “هلوسة الذكاء الاصطناعي”. وفي كل الأحوال فكل ما يرد في البحث من صفحته الأولى للأخيرة هو مسؤولية كاملة للباحثين من الناحية العلمية والأخلاقية والقانونية.
وبعرض الاستخدامات العشرة السابقة على مجموعة من المتخصصين لاستطلاع آرائهم وإذا ما كانوا يتفقون مع شات جي بي تي فيما حدده من استخدامات مسؤولة لتقنيات الذكاء الاصطناعي في البحث العلمي، فقد أجمعوا على أن استخدام الذكاء الاصطناعي في تحسين اللغة أو إعادة الصياغة أو الترجمة، هو من أكثر الاستخدامات قبولًا وانتشارًا، شريطة أن يُذكر ذلك صراحة في قسم المنهجية أو الشكر والتقدير داخل البحث، التزامًا بمبدأ الشفافية. هذه الاستخدامات العشرة لتطبيقات الذكاء الاصطناعي تعكس اتجاهًا عالميًا متناميًا نحو تنظيم العلاقة بين الباحث والأدوات الذكية، على الرغم أنه لا يوجد اتفاق تام بين المهتمين بالأمر حولها بصورة نهائية.
كل ما يهم المؤسسات البحثية ودور النشر في الوقت الحالي، وبعيدا عن فكرة حدود الاستخدام، هو ان تكون السيطرة الفكرية والبحثية في يد الباحث وليس فيما ينتجه الذكاء الاصطناعي، والذي يمكن أن يُستخدم لتيسير عملية الكتابة وتحسين جودة العرض بلا أدنى مشكلة أخلاقية. وعلينا أن نعلم ان التحدي الحقيقي أمام الجامعات ودور النشر اليوم ليس في منع استخدام الذكاء الاصطناعي، بل في توجيهه توجيهًا أخلاقيًا ومسؤولًا يحافظ على جوهر البحث العلمي، وهو ما يجب أن نركز عليه أيضاً في مؤسساتنا الأكاديمية.