سياسات الذكاء الاصطناعي التوليدي
سياسات الذكاء الاصطناعي التوليدي
الذكاء الاصطناعي والتأليف
تتبع مجلة ARLJ إرشادات COPE بشأن الذكاء الاصطناعي والتأليف. تنص سياسة ARLJ على عدم إمكانية إدراج برامج الذكاء الاصطناعي كمؤلف في أي بحث.
برنامج ChatGPT والبرامج المشابهة ليست بشرية، ولذلك، لا يمكنها تصميم الدراسات بشكل مستقل، أو إنشاء ونقد المنهجيات، أو تفسير البيانات، أو تحمل مسؤولية نتائج وآثار الدراسة المعنية. لهذا السبب، يجب التعامل مع ChatGPT والبرامج المشابهة كأدوات، وليس كمؤلفين، لمزيد من المعلومات حول إرشادات COPE بشأن الذكاء الاصطناعي والتأليف.
الذكاء الاصطناعي والأدوات الآلية
سياسات ARLJ بشأن استخدام الذكاء الاصطناعي والأدوات الآلية هي كما يلي:
لن تراجع ARLJ أو تقبل المخطوطات التي كتبها مؤلفون غير بشريين. لا ينبغي إدراج نماذج اللغة الكبيرة (LLMs) وأدوات الذكاء الاصطناعي في سطر المؤلف لأي سبب من الأسباب.
يُطلب من المؤلفين الكشف عما إذا تم استخدام أدوات الذكاء الاصطناعي في إنشاء وإعداد مخطوطاتهم. تحتفظ ARLJ بالحق في طلب واستلام معلومات مفصلة حول كيفية استخدام أدوات LLM والذكاء الاصطناعي في إنشاء المخطوطة.
لا يجوز للمراجعين استخدام أدوات LLM أو الذكاء الاصطناعي عند مراجعة المخطوطات أو إعداد التعليقات للمؤلفين.
ستستمر ARLJ في مراقبة الآثار الأخلاقية لاستخدام أدوات الذكاء الاصطناعي والأتمتة مع تطورها وتغيرها.
لا تتجاوز النسبة القصوى لاستخدام الذكاء الاصطناعي 5%.
اطلع على إرشادات وتوصيات COPE بشأن أدوات الذكاء الاصطناعي والأتمتة لمزيد من المعلومات.