مقالات كبار الكتاب

د. محمود السعيد يكتب .. الاستخدام المسؤول للذكاء الاصطناعي في البحث العلمي (1)

بقلم د. محمود السعيد – نائب رئيس جامعة القاهرة

في الثلاثين من سبتمبر الماضي أعلن المجلس الأعلى للجامعات عن خطوة جوهرية في مسيرة التعليم العالي والبحث العلمي المصري، وذلك بإصداره رسميًا الدليل الاسترشادي لضوابط استخدام الذكاء الاصطناعي. ويأتي هذا الدليل ليكون بمثابة إطار مرجعي شامل يوضح الأسس التنظيمية والمبادئ الأخلاقية والضوابط الحاكمة لاستخدام تطبيقات الذكاء الاصطناعي، سواء في العملية التعليمية داخل الجامعات أو في مجال البحث العلمي بمختلف مستوياته. ومن المتوقع أن يشكل هذا الدليل نقطة انطلاق للجامعات نحو تطوير سياساتها الداخلية ودلائلها الخاصة التي تضمن الاستخدام المسؤول لهذه التقنيات في خدمة التعليم والبحث.

ويؤكد المجلس الأعلى من خلال هذا الدليل الاسترشادي أن الهدف الأساسي منه يتمثل في وضع معايير وضوابط واضحة لتوظيف تطبيقات الذكاء الاصطناعي داخل البيئات الأكاديمية والبحثية، بما يحقق عدة غايات هامة في منظومة التعليم العالي والبحث العلمي مثل تعزيز جودة المخرجات العلمية، وتوجيه أعضاء هيئة التدريس والباحثين والطلاب نحو الاستخدام الأخلاقي والآمن لهذه التقنيات، والحد في الوقت ذاته من مخاطر سوء الاستخدام أو الإفراط في الاعتماد عليها دون وعي كافٍ بطبيعتها وحدودها.

على الجامعات والمراكز البحثية خلال الفترة المقبلة أن تقوم بتفعيل هذه الإرشادات عمليًا، لاسيما أن توظيف الذكاء الاصطناعي في البحث العلمي يطرح في هذه الأيام تحديات جوهرية تمس مفاهيم أصيلة في مجال البحث العلمي، مثل الأصالة الفكرية، والأمانة العلمية، وحجم المساهمة البحثية للباحث نفسه، فقد أصبح الاعتماد على أدوات الذكاء الاصطناعي التوليدية في إعداد الرسائل العلمية والأبحاث أمرًا شائعًا ولا يمكن منعه بتشريعات أو قوانين أو لوائح. وبالرغم من أن هذه الأدوات توفر قدرة أكبر للباحثين على الإنجاز والكفاءة في المخرجات البحثية، لكنها في المقابل تثير العديد من التساؤلات التي لا يمكن تجاهلها.

أول هذه التساؤلات يتمثل في الحدود الأخلاقية لاستخدام هذه الأدوات: فهل من المنطقي في عصرنا الرقمي أن تحظر المؤسسات الأكاديمية استخدامها بشكل كامل؟ الإجابة بالطبع لا، لأن الواقع العملي يفرض علينا الاستفادة من إمكاناتها في مراحل متعددة من البحث، وليس منع استخدامها. لكن في المقابل لا بد من وضع معايير دقيقة تضمن ألا يتحول استخدامها إلى التفاف على مفهوم “الجهد البحثي” أو تهميش لدور الباحث نفسه.

أما الإشكالية الثانية فتتعلق بظاهرة الانتحال الأكاديمي (Plagiarism)، حيث تعتمد تقنيات الذكاء الاصطناعي على معالجة كم هائل من النصوص والمحتويات السابقة لتوليد مخرجاتها. وهنا يبرز السؤال المهم: هل يمكن اعتبار الاعتماد على هذه المخرجات –دون معرفة المصادر الأصلية– نوعًا من الانتحال غير المباشر؟ وما الضمانة التي تتيح للباحث أن يقدم عملًا أصيلًا وهو يستخدم أدوات لا تكشف بوضوح عن جذور المادة المنتجة؟

وتأتي المخاوف الثالثة من زاوية مصداقية ودقة المعلومات التي يقدمها الذكاء الاصطناعي، إذ إن تطبيقاته لا تنتج معرفة جديدة بقدر ما تعيد صياغة ما سبق تغذيتها به من بيانات قد تكون ناقصة أو منحازة أو غير دقيقة. وقد سجل عدد من الباحثين ملاحظات عن إنتاج هذه الأدوات لمراجع علمية غير صحيحة أو حتى ملفقة، الأمر الذي يثير شكوكًا مبررة حول مدى صلاحيتها كمرجع علمي يمكن الوثوق به.

وتبقى هناك قضية لا تقل أهمية عن ما سبق، وهي مدى المساهمة العلمية الحقيقية للباحث في ظل السماح باستخدام الذكاء الاصطناعي في تحسين اللغة، أو إعادة تنظيم محتوى الرسالة، أو إجراء التحرير الأكاديمي. فكيف يمكن تقييم هذه المساهمة؟ وهل تكفي الصياغة النهائية الجيدة لتأكيد القيمة البحثية؟ هذا السؤال يقودنا إلى إعادة التفكير في آليات مناقشة الرسائل العلمية، التي تحولت في كثير من الأحيان إلى احتفال اجتماعي يقتصر على تقديم التهاني، في حين أن الأصل أن تكون المناقشة اختبارًا علميًا صارمًا يكشف مدى إلمام الباحث بمحتوى بحثه وسلامة منهجيته وقيمة نتائجه. هذا هو الأصل في مناقشة الرسائل، وهذا ما كانت عليه المناقشات قديماً، والعودة لهذا الأصل لم تعد أمرا اختياريا في ظل هذا العصر الرقمي، بل أصبحت ضرورة حتمية.

وفي سلسلة مقالات لاحقة، سنتوقف عند هذه القضايا بتفصيل أعمق، مستندين إلى مرجع علمي حديث يتمثل في دراسة نُشرت مؤخرًا بمجلة Advances in Simulation تحت عنوان: الكتابة الأكاديمية بمساعدة الذكاء الاصطناعي: توصيات للاستخدام الأخلاقي. وتتناول هذه الدراسة إرشادات دقيقة وضوابط محددة تضمن الاستخدام المسؤول والأخلاقي لهذه التطبيقات داخل البحث العلمي، بما يعزز من مصداقيته ويحافظ على قيمته.

مقالات ذات صلة

زر الذهاب إلى الأعلى