يعيد الذكاء الاصطناعي تكوين العالم بطرق عميقة، وله تأثير واسع النطاق على حياتنا، بما في ذلك التعليم، إن استخدام الذكاء الاصطناعي في الفصول الدراسية وفي التعليم يوافر فرصًا واعدة لتحسين عملية التعليم. طُبِّق الذكاء الاصطناعي في السياقات التعليمية في مجموعة من السياقات التي تتراوح من التنفيذ التلقائي للعمليات والمهام الإدارية إلى تطوير المناهج والمحتوى، وأساليب التدريس إلى فهم عمليات تعلم الطلاب وتحسينها بفضل تحليل بيانات الطلاب.
دور الذكاء الاصطناعي في التعليم
على مدى العقد الماضي، نما استخدام أدوات الذكاء الاصطناعي لدعم التعلم وتعزيزه تعزيزًا كبيرًا. في مراجعة الأدبيات الحديثة، فحص Chen et al أدبيات الذكاء الاصطناعي في التعليم من عام 2000 إلى عام 2019، وشاركوا عددًا من النتائج ذات الصلة:
- شهد الذكاء الاصطناعي في التعليم اهتمامًا متزايدًا بسبب التأثير الإيجابي له على التعلم.
- حدوث زيادة في الأدبيات المتعلقة بالذكاء الاصطناعي في التعليم على مر السنين.
- يُلاحظ وجود بحوث الذكاء الاصطناعي في التعليم بوجه خاص في الدوريات متعددة التخصصات التي تركز بشكل مزدوج على التعليم والتكنولوجيا، مع الاهتمام المتزايد بالذكاء الاصطناعي في التعليم، توجد حاجة إلى توجيه استخدام أنظمة الذكاء الاصطناعي في التعليم بمنهج أخلاقي.
يصنَّف قانون الذكاء الاصطناعي للاتحاد الأوروبي استخدام الذكاء الاصطناعي في التعليم على أنه «عالي الخطورة» لأن «مثل هذه الأنظمة قد تنتهك الحق في التعليم والتدريب، وكذلك الحق في عدم التعرّض للتمييز وإطالة أمد أنماط التمييز التاريخية».
من الضروري وجود إرشادات أخلاقية بشأن الذكاء الاصطناعي في التعليم للحد من الآثار السلبية الناجمة عن انتشار التحيزات التاريخية والتمييز الذي يمكن أن ينتج عن استخدام الذكاء الاصطناعي في التعليم. في الوقت نفسه، من المهم حماية خصوصية واستقلالية الطلاب والمعلمين حتى لا يمكن استخدام البيانات التي تجمعها المؤسسات التعليمية لأغراض أخرى. ومن ثم، توجد حاجة إلى استخدام إطار أخلاقي لتنظيم الذكاء الاصطناعي في التعليم.
إضافة إلى النظر في أخلاقيات الذكاء الاصطناعي العامة، يجب أن تضع أخلاقيات الذكاء الاصطناعي في التعليم أيضًا في الحسبان أخلاقيات التعليم. يشير التداخل بين أخلاقيات الذكاء الاصطناعي وأخلاقيات التعليم وأخلاقيات الذكاء الاصطناعي في التعليم إلى أنه يجب أن تستلهم من بعضها بعضًا.
ويثير استخدام تقنيات الذكاء الاصطناعي في التعليم أسئلة مرتبطة بالقضايا الأخلاقية مثل ملكية البيانات والتحكم فيها، والخصوصية، وتحيُّز الخوارزميات، وإدارة البيانات، والشفافية، والحاجة إلى السياق التعليمي.
الذكاء الاصطناعي والأخلاقيات العامة
على الرغم من هذه المخاوف التي أثارتها أنظمة الذكاء الاصطناعي في التعليم، فقد أُولِي اهتمام محدود لأخلاقيات الذكاء الاصطناعي في التعليم. يمكن لأخلاقيات الذكاء الاصطناعي في التعليم أن تستعير من كلا المجالين (الأخلاقيات العامة وأخلاقيات الذكاء الاصطناعي) وأن تضيف قيمًا أخلاقية إضافية حسبما يقتضيه المجال المحدد، مع الأخذ في الحسبان أيضًا مدى قابلية تطبيق هذه القيم على مجال الذكاء الاصطناعي في التعليم. بسبب هذه التعقيدات، تستحق أخلاقيات الذكاء الاصطناعي في التعليم الاهتمام.
المنهج
من أجل تحديد المكونات الرئيسة للإطار الأخلاقي للذكاء الاصطناعي في التعليم، يتبع هذا المقال نسخة معدَّلة من النموذج القابل للتعميم لتطوير قواعد الممارسة التي طوّرها Sclater. يحتوي "دليل الممارسات الخاصة بتحليل التعلم" الذي وضعه الباحثون على مجموعة من الإرشادات وبعض المبادئ الأخلاقية [11]. نظرًا لتشابه شكل قواعد الممارسات المطوّرة مع الإطار الأخلاقي والطبيعة المنتظمة للمنهجية القابلة للتعميم، اخترنا استخدام هذا النهج لتطوير إطارنا الأخلاقي للذكاء الاصطناعي في التعليم.
يُقدِّم الباحث الأنشطة المتَّبعة كأساس لنموذج قابل للتعميم يمكن استخدامه لتطوير قواعد الممارسة في المهن أو مجالات التعليم الأخرى. يتضمَّن النموذج القابل للتعميم تطوير خمس منتجات:
- مراجعة الأدبيات التي تحدد المخاوف الأخلاقية والقانونية والمنطقية،
- تصنيف القضايا المكررة باستشارة الخبراء.
- مسودة أو مشروع قواعد الممارسة.
- النسخة النهائية المنشورة علنًا لقواعد الممارسة، تتضمن التغذية الراجعة من المشاورات العامة.
- موقع ويب داعم مع إرشادات ودراسات حالة.
تُقدم مجموعة استشارية من الخبراء وأصحاب المصلحة مدخلات على مدار العملية. وفي حين يجري اختبار "قواعد الممارسة" تجريبيًا، تُستخدم الملاحظات والإفادات في تحديث النسخ اللاحقة.
يستخدم هذا المقال النموذج القابل للتعميم الذي طوَّره Sclater، ولكنه يجري ثلاثة تعديلات:
أولًا: نبدأ باستشارة أصحاب المصلحة ودمج مشاركتهم من البداية، وذلك لأن أخلاقيات الذكاء الاصطناعي في التعليم هي مجال جديد نسبيًا وله تأثير مباشر على حياة أصحاب المصلحة.
ثانيًا: يشارك الخبراء في مرحلة لاحقة من النموذج لمراجعة المدخلات التي جُمِعَت من أصحاب المصلحة. إضافة إلى ذلك، نجمع المدخلات عن تصميم إطار العمل من الخبراء.
أخيرًا: نظرًا لقيود الوقت، فإننا لا نتبع الخطوتين الأخيرتين الموضحتين في النموذج القابل للتعميم.
مراجعة أخلاقيات الذكاء الاصطناعي في التعليم
للإجابة عن سؤال المقال الرئيس، سيتم أولًا إجراء مراجعة منهجية للأدبيات تبحث في أخلاقيات الذكاء الاصطناعي، وأخلاقيات التعليم، وأخلاقيات الذكاء الاصطناعي في التعليم. ستكون مراجعة منهجية للأدبيات أساسًا بتحديد المكونات الرئيسة لإطار أخلاقي للذكاء الاصطناعي في التعليم.
وبعد ذلك، ستُسَدّ الفجوات في الأدبيات بفضل التشاور مع أصحاب المصلحة. سيتم بعد ذلك تصنيف نتائج مشاورة أصحاب المصلحة من قبل الخبراء واستخدامها لتكوين إطار أخلاقي، وستضمن مشاورة أصحاب المصلحة ومشاورات الخبراء إمكانية دمج وجهات نظر جميع أصحاب المصلحة في الذكاء الاصطناعي في التعليم ضمن الإطار.
مراجعة منهجية للأدبيات Systematic literature review
تفتقر الأدبيات الحالية حول أخلاقيات الذكاء الاصطناعي في التعليم إلى ثلاثة جوانب:
- تعريف نظري لجوهر أخلاقيات الذكاء الاصطناعي في التعليم.
- تصنيف هرمي لأخلاقيات الذكاء الاصطناعي في التعليم.
- تأملات في اللوائح.
كخطوة أولى في هذا المقال، تم إجراء مراجعة منهجية للأدبيات بهدف معالجة هذه الفجوات بتعريف وتحديد المكونات الرئيسة لأخلاقيات الذكاء الاصطناعي في التعليم.
في مراجعة منهجية للأدبيات هذه، تم اتباع الأسلوب أو المدخل المعياري للأخلاق - الذي يقترح "كيف تتصرف وكيف تعيش وأي نوع من الأشخاص يجب أن تكون". يتم تعريف الأخلاق وفق القيم والمعايير.
القيم هي أفكار مجردة يُسعى إليها بواسطة أنواع معينة من السلوك، أما المعايير هي قواعد تحدد الإجراءات لتحقيق قيم معينة، باستخدام هذا التعريف للأخلاق، يتم تحديد المكونات الرئيسة للإطار الأخلاقي على أنها القيم والمعايير الأخلاقية.
وُجِّهَت المراجعة المنهجية للأدبيات من سؤالين رئيسيين:
- ما القيم الأخلاقية الرئيسة للذكاء الاصطناعي في التعليم؟
- ما المعايير الأخلاقية للذكاء الاصطناعي في التعليم؟
تهدف المراجعة المنهجية للأدبيات إلى تحديد القيم الأخلاقية الرئيسة والمعايير الأخلاقية للذكاء الاصطناعي في التعليم بتحليل الأدبيات ذات الصلة المنشورة بين عامي 2010 و2022 والمتوفرة باللغة الإنجليزية. بالبحث الشامل في قاعدة البيانات، تم تحديد ما مجموعه 25 مقالة وتحليلها.
اُسْتُخْدِمَت طريقة عناصر التقارير المفضلة للمراجعات المنهجية والتحليلات الوصفية لضمان الشفافية وقابلية تكرار مراجعة منهجية للأدبيات.
لتحديد القيم الأخلاقية، جُمِعَت التعريفات الموجودة في الأدبيات والاستفادة منها. لتحليل القيم الأخلاقية، جُمِّعَت في سمات أو موضوعات مشتركة. استند معيار التجميع إلى تحديد المصطلحات الرئيسة الشائعة التي تظهر باستمرار عبر التعريفات المتعددة للقيم الأخلاقية.
وبعد ذلك، عُيِّنَت تسميات وصفية للموضوعات الناشئة بحيث تُجسِّدُ المعنى الشامل والجوهر المفاهيمي الذي تنقله مجموعة التعريفات ضمن كل مجموعة على حدة. سمحت عملية التحليل الموضوعي هذه بتوحيد وتنظيم منهجيين للقيم الأخلاقية المحددة في الأدبيات.
كشف تحليل القيم الأخلاقية عن ست قيم أخلاقية رئيسية للذكاء الاصطناعي في التعليم، وهي: (عدم التمييز، والإشراف على البيانات، والرقابة البشرية، وحسن النية، والقابلية للتفسير، والكفاءة التعليمية).
حُدِّدَت المعايير الأخلاقية بالبحث عن كلمات رئيسة مثل "المعايير"، أو "المبادئ التوجيهية"، أو "اللوائح"، أو "التوصيات"، أو أي مرادف آخر لهذه المصطلحات في المقالات المختارة. تم تحديد أربع مجموعات رئيسية من أصحاب المصلحة من الأدبيات: المستخدمون النهائيون، والمطورون، والمنظمون، والمعاهد التعليمية.
صُنِّفَت المعايير الأخلاقية المحددة في الأدبيات وفقًا لمجموعات أصحاب المصلحة التي هي ذات صلة بها، والقيم الأخلاقية الرئيسة المقابلة التي يتمسكون بها. بعد ذلك، تم دمج هذين التصنيفين في مصفوفة، لتعيين المعايير الأخلاقية لمجموعات أصحاب مصلحة محددة لتطبيق قيم أخلاقية رئيسة معينة، ويمكن استخدام هذه النتيجة لتوفير المعايير الأخلاقية لمجموعات محددة من أصحاب المصلحة لتطبيق قيمة أخلاقية رئيسة محددة.
يمكن أن تكون القيم الأخلاقية الرئيسة والمعايير الأخلاقية المحددة في المراجعة المنهجية للأدبيات أساسًا لتطوير إطار عمل أخلاقي - لمصلحة الذكاء الاصطناعي في التعليم، وميَّزت المراجعة المنهجية للأدبيات هذه المكونات الرئيسة التي من شأنها أن تكوِّن مثل هذا الإطار الأخلاقي، ما يمهد الطريق لمزيد من التفصيل والتجسيد لهذه المكونات الرئيسة.
مشاورات أصحاب المصلحة Stakeholder consultation
تهدف هذه المقالة إلى استكشاف المفاهيم الأخلاقية لأصحاب المصلحة الرئيسين في مجال الذكاء الاصطناعي في التعليم. سلَّطت المراجعة المنهجية للأدبيات الضوء على نقص المعايير الأخلاقية للمستخدمين النهائيين والمعاهد التعليمية. بناءً على هذه النتيجة، تألَّفت المجموعة المستهدفة لمشاورة أصحاب المصلحة من ثلاثة مسارات متميزة: الطلاب، والمعلمين، والإداريين التربويين الذين يعملون كممثلين عن المؤسسات التعليمية؛ لتسهيل الاستكشاف المتعمق لأخلاقيات الذكاء الاصطناعي في التعليم، تستخدم الدراسة منهجية بحث نوعية تتضمن مناقشات جماعية.
في هذه الدراسة، تم تحديد المشاركين بناءً على تطابق ملفهم الشخصي مع مجموعات أصحاب المصلحة المحددة، أي الإداريين التربويين والطلاب والمعلمين الفعالين في التعليم العالي. اُتُّصِل بالمشاركين خلال ورش العمل والعروض التقديمية في المؤتمرات وغيرها من الأحداث الأكاديمية المتعلقة بالذكاء الاصطناعي أو التعليم أو كلا المجالين. بعد إبداء الاهتمام في البداية بالمشاركة، تلقى المشاركون المحتملون دعوة عبر البريد الإلكتروني إلى جانب خطاب يقدم معلومات حول تفاصيل الدراسة.
تم تحديد خمس مجموعات محورية منفصلة في المدة من مارس 2024 إلى مايو 2024 (شاملة)، وتحديد مجموعتين لكل من الطلاب والمعلمين، وواحدة للمديرين التربويين. تكوَّنت كل مجموعة من عدد يتراوح بين خمسة وثمانية مشاركين لتحسين تفاعل المشاركين وتأثيرهم المتبادل.
دارت المناقشات في ثلاث معضلات واعتبارات أخلاقية تُحيط بدمج الذكاء الاصطناعي في البيئات التعليمية، فضلًا على ذلك، وجِّهت الأسئلة المعدة مسبقًا المناقشات، ما مكَّن الباحثين من جمع بيانات نوعية عن المعايير الأخلاقية ووجهات النظر التي تحتفظ بها كل مجموعة من أصحاب المصلحة. وبفضل هذه الأسئلة، رُكِّز بوجه خاص على معالجة الثغرات التي حُدِّدَت بالمراجعة المنهجية للأدبيات.
تهدف مشاورة أصحاب المصلحة إلى جمع مدخلات من مختلف مجموعات أصحاب المصلحة المشاركة في الذكاء الاصطناعي في التعليم، فيما يتعلق بالاعتبارات الأخلاقية والتحديات المرتبطة باستخدام الذكاء الاصطناعي في التعليم. سيتم بعد ذلك دمج هذه المدخلات في تطوير إطار أخلاقي للذكاء الاصطناعي في التعليم.
فضلًا على ذلك، ستتضمن عملية تحليل البيانات تعيين المعايير الأخلاقية التي حددها أصحاب المصلحة على القيم الأخلاقية الرئيسة للذكاء الاصطناعي في التعليم. ستتحقق هذه العملية أيضًا من شمولية القيم الأخلاقية الرئيسة واستكمال الإطار الأخلاقي بأي قيم ومعايير أخلاقية مفقودة تتعلق بالذكاء الاصطناعي في التعليم.
استشارات الخبراء Expert consultation
ستشارك هذه المقالة لجنة خبراء تضم أفرادًا يتمتعون بمعرفة وخبرة واسعة في مجال الذكاء الاصطناعي في التعليم. وسيتألف الفريق من خمسة إلى عشرة خبراء.
الهدف الأساسي من هذه الدراسة هو الاستفادة من الخبرة الجماعية للجنة في تقييم وتخصيص المعايير الأخلاقية لإطار أخلاقي للذكاء الاصطناعي في التعليم.
بناءً على المنهجية التي وصفها Sclater، سيُكَلَّف الخبراء بتصنيف المعايير الأخلاقية المحددة على مقياس من ثلاث نقاط، وتقييم أهميتها للإطار المقترح. ستُصَنَّف التقديرات على النحو التالي:
- مهمة للغاية
- مهمة
- أقل أهمية.
سيسهِّل هذا التقييم اختيار المعايير الأخلاقية الأكثر صلة، التي سيتم دمجها لاحقًا في الإطار الأخلاقي.
فضلًا على ذلك، ستطلب الدراسة مدخلات من اللجنة السابقة فيما يتعلق بالشكل الأمثل وعرض الإطار الأخلاقي النهائي. ستضمن هذه المشاورة أن الإطار ليس قويًّا من الناحية النظرية فحسب، بل عمليًا أيضًا ويمكن الوصول إليه، ما يُسهِّل نشره واعتماده بصورة فعالة داخل مجتمع الذكاء الاصطناعي في التعليم وأصحاب المصلحة المعنيين. وتجدر الإشارة إلى أن التصميم التفصيلي لهذه الدراسة لا يزال قيد التقدم.
ستعمل مشاورة الخبراء على صقل وتحسين المعايير الأخلاقية التي حُدِّدَت بواسطة الدراسات السابقة، مع التركيز على الأساسية منها والأكثر أهمية. تهدف عملية التحسين هذه إلى منع الإطار الأخلاقي الناتج من أن يصبح معقدًا تعقيدًا مفرطًا أو مربكًا لأصحاب المصلحة لاستخدامه بفعالية. وفي الوقت نفسه، ستوجّه الرؤى والمدخلات التي حُصِل عليها من الخبراء تشكيل الإطار ليكون قابلًا للاستخدام وبشكل شامل، مما يضمن تطبيقه عمليًا واكتماله.
خاتمة
في الختام، يهدف هذا المقال إلى المساهمة في مجال الذكاء الاصطناعي في التعليم بتطوير إطار أخلاقي شامل لتوجيه الاستخدام الأخلاقي للذكاء الاصطناعي في التعليم، ويتبع المقال نهجًا صارمًا ومتعدد الأوجه، بالاعتماد على مصادر البيانات المختلفة ووجهات نظر أصحاب المصلحة.
ستتضمن المرحلة الأولى من الدراسة (مراجعة منهجية للأدبيات) التي ستكون بمثابة الأساس لتحديد القيم الرئيسة والمعايير الأخلاقية ذات الصلة بمجال الذكاء الاصطناعي في التعليم. وستعمل هذه المراجعة الشاملة على توحيد وتوليف قاعدة المعرفة الحالية، ما يوفر أساسًا نظريًا للمراحل اللاحقة من الدراسة.
بناءً على هذا الأساس، ستقيم الدراسة الثانية مجموعات أصحاب المصلحة الرئيسن بسلسلة من مناقشات المجموعات المحددة، وسيسمح هذا الأسلوب النوعي باستكشاف متعمق لوجهات نظر ومخاوف وتوقعات الطلاب والمعلمين والمديرين فيما يتعلق بالآثار الأخلاقية للذكاء الاصطناعي في التعليم. ستثري الرؤى التي جُمِعَت من هذه المناقشات فهم المشهد الأخلاقي للذكاء الاصطناعي في التعليم.
فضلًا على ذلك، في دراسة ثالثة، نسعى للحصول على خبرة لجنة من المتخصصين في المجال للتحقق من صحة الإطار الأخلاقي المقترح وترتيبه وتحسينه. ومن شأن تتويج هذه الجهود أن يؤدي إلى إطار أخلاقي شامل يعالج التحديات الأخلاقية التي يفرضها استخدام نظام الذكاء الاصطناعي في التعليم.
يمكن استخدام هذا الإطار الأخلاقي من قبل الطلاب والمعلمين والإداريين التربويين لتحديد القضايا الأخلاقية في استخدام أنظمة الذكاء الاصطناعي في التعليم. ويمكن أن يضمن عدم وجود أي آثار ضارة متعمدة أو غير مقصودة على حياتهم. إضافة إلى ذلك، يؤكد أهمية إجراء حوار مستمر حول القضايا الأخلاقية المحتملة الناجمة عن التطور السريع لأنظمة الذكاء الاصطناعي في التعليم. بإعطاء الأولوية للاعتبارات الأخلاقية، ويمكن للقطاع التعليمي تسخير الإمكانات التحويلية للذكاء الاصطناعي مع حماية الرفاهية والخصوصية والحقوق الأساسية لجميع أصحاب المصلحة المعنيين.
يجب عليك تسجيل الدخول أولاً لإضافة تعليق.