سياسة استخدام أدوات الذكاء الاصطناعي في البحث العلمي
المقدمة
تُدرك المجلة الدور المتزايد لأدوات الذكاء الاصطناعي في البحث العلمي. وبينما تسهم هذه التقنيات في تعزيز الكفاءة وتحقيق رؤى أعمق، يجب استخدامها بمسؤولية وأخلاقية للحفاظ على نزاهة العمل الأكاديمي.
الاستخدام المقبول لأدوات الذكاء الاصطناعي
يجوز للمؤلفين استخدام أدوات الذكاء الاصطناعي مثل ChatGPT أو Grammarly أو DeepL في:
- تحرير اللغة أو الترجمة
- تحسين النماذج البرمجية أو الحسابية
لكن لا يجوز أن تحل أدوات الذكاء الاصطناعي محل مساهمات المؤلف العلمية أو أن تُستخدم لإنشاء محتوى دون رقابة كاملة.
متطلبات الإفصاح
يجب الإفصاح بشكل واضح عن أي استخدام لأدوات الذكاء الاصطناعي في المخطوطة، مع ذكر:
- اسم الأداة المستخدمة
- الغرض أو المهمة التي استخدمت فيها
ويُدرج هذا الإفصاح في قسم "المنهجية" أو بعد قائمة المراجع.
التأليف والمسؤولية
لا يجوز إدراج أدوات الذكاء الاصطناعي كأشخاص مؤلفين. يتحمل الباحثون المسؤولية الكاملة عن المحتوى والدقة والامتثال الأخلاقي لمخطوطاتهم. وقد يؤدي إساءة استخدام الذكاء الاصطناعي، مثل الانتحال أو تزوير البيانات أو التأليف الزائف، إلى رفض أو سحب البحث.
مراجعة السياسة وتحديثها
سيتم مراجعة هذه السياسة بشكل دوري تماشياً مع التطورات التكنولوجية والأخلاقية، وتحتفظ المجلة بحق تعديل الإرشادات بما يتماشى مع أفضل الممارسات.
التواصل والاستفسارات
للاستفسارات حول هذه السياسة، يرجى التواصل مع هيئة التحرير على البريد الالكتروني للمجلة