مبادئ لاستخدام الذكاء الاصطناعي بمسؤولية في العمل

سواء أحببته أو كرهته، فإن التوسع السريع في الذكاء الاصطناعي لن يتباطأ في وقت قريب.

لكن للذكاء الاصطناعي أخطاء فادحة يمكن أن تُلحق الضرر بسرعة بسمعة العلامة التجارية. فقط اسأل أول روبوت محادثة من Microsoft، Tay.

قد يهمك أيضًا تقاطع الذكاء الاصطناعي والأمن السيبراني.. التحديات والحلول

الذكاء الاصطناعي لغة العصر

في سباق التكنولوجيا، يخشى جميع القادة أن يتخلفوا عن الركب إذا تباطأوا في حين لا يفعل الآخرون.

إنه وضع محفوف بالمخاطر، ويبدو التعاون محفوفًا بالمخاطر، والانشقاق مغرٍ.

تشكِّل "معضلة السجين" هذه (كما يطلق عليها في نظرية الألعاب) مخاطر على ممارسات الذكاء الاصطناعي المسؤولة.

يقود القادة، الذين يعطون الأولوية للسرعة في السوق، سباق التسلح بالذكاء الاصطناعي الحالي الذي يستعجل فيه اللاعبون الرئيسون في الشركات المنتجات، بل الاعتبارات الحرجة قصيرة التغيير مثل الإرشادات الأخلاقية واكتشاف التحيز وتدابير السلامة.

على سبيل المثال، تسرِّح شركات التكنولوجيا الكبرى فرق أخلاقيات الذكاء الاصطناعي على وجه التحديد في وقت تشتد فيه الحاجة إلى اتخاذ إجراءات مسؤولة.

ومن المهم أيضًا إدراك أن سباق التسلح بالذكاء الاصطناعي يمتد إلى ما أبعد من مطوري نماذج اللغات الكبيرة (LLMs) مثل OpenAI و Google و Meta. ويشمل كثيرًا من الشركات التي تستخدم LLMs لدعم تطبيقاتها المخصصة.

في عالم الخدمات المهنية، على سبيل المثال، أعلنت شركة برايس ووترهاوس كوبرز أنها تنشر بالذكاء الاصطناعي روبوت محادثة لـ 4 من محاميها، موزعة على 1000 دولة.

سيساعد هؤلاء المساعدون المدعومون من الذكاء الاصطناعي المحامون في تحليل العقود، وأعمال الامتثال التنظيمي، والعناية الواجبة، وغيرها من الخدمات الاستشارية والاستشارية القانونية.

تدرس إدارة برايس ووترهاوس كوبرز أيضًا توسيع روبوتات الدردشة بالذكاء الاصطناعي هذه في ممارساتها الضريبية.

في المجموع، تخطط شركة الاستشارات العملاقة لضخ 100 مليار دولار في "الذكاء الاصطناعي التوليدي"، وهي أداة جديدة قوية قادرة على تقديم تعزيزات تغيِّر قواعد اللعبة للأداء.

قد يهمك أيضًا طفرة الاستثمار في الذكاء الاصطناعي

استخدام الذكاء الاصطناعي في العمل

وعلى المنوال نفسه، أطلقت كي بي إم جي مساعدها الخاص الذي يعمل بنظام الذكاء الاصطناعي، الذي أطلق عليه اسم "كيم تشات"، الذي سيساعد الموظفين في العثور بسرعة على الخبراء الداخليين في جميع أنحاء المؤسسة، وربطهم بالفرص الواردة، وإنشاء مقترحات تلقائيًّا بناء على المطابقة بين متطلبات المشروع والمواهب المتاحة.

مساعدهم بالذكاء الاصطناعي "سيمكن التعاون بين الفرق، ويساعد أولئك الجدد في الشركة عن طريق تجربة تنقل أكثر سلاسة وكفاءة".

تدمج Slack أيضًا الذكاء الاصطناعي التوليدي في تطوير Slack GPT، وهو مساعد بالذكاء الاصطناعي مصمم لمساعدة الموظفين في العمل على نحو أكثر ذكاء وليس بجهد أكبر.

تتضمن المنصة مجموعة من القدرات بالذكاء الاصطناعي، مثل ملخصات المحادثات والمساعدة في الكتابة، لتعزيز إنتاجية المستخدم.

هذه الأمثلة ليست سوى غيض من فيض.

قريبًا سيتمكن مئات الملايين من مستخدمي Microsoft 365 من الوصول إلى Business Chat، وهو وكيل ينضم إلى المستخدم في عمله، ويسعى جاهدًا لفهم بيانات Microsoft 365 الخاصة به.

يمكن للموظفين مطالبة المساعد فعل كل شيء، بدءًا من تطوير ملخصات تقرير الحالة، بناء على نصوص الاجتماعات والتواصل عبر البريد الإلكتروني إلى تحديد العيوب في الإستراتيجية والتوصل إلى حلول.

هذا الانتشار السريع لوكلاء الذكاء الاصطناعي هو السبب في أن أرفيند كريشنا، الرئيس التنفيذي لشركة IBM، كتب مؤخرًا أن "العمل مع الذكاء الاصطناعي الموثوق به سيكون له تأثير تحويلي على اقتصادنا ومجتمعنا... لقد حان الوقت لتبني هذه الشراكة، وإعداد القوى العاملة لدينا لكل ما يقدمه الذكاء الاصطناعي".

ببساطة، تشهد المؤسسات نموًّا هائلًا في تركيب الأدوات التي تعمل بالطاقة بالذكاء الاصطناعي والشركات التي لا تتكيف مع مخاطر التخلف عن الركب.

قد يهمك أيضًا الذكاء الاصطناعي لم يظهر فجأة في القرن الحالي.. حقائق مثيرة

 مخاطر العمل بالذكاء الاصطناعي

لسوء الحظ، فإن الحفاظ على القدرة التنافسية ينطوي أيضًا على مخاطر كبيرة لكل من الموظفين وأصحاب العمل.

على سبيل المثال، يشير منشور لليونسكو عام 2022 حول "آثار الذكاء الاصطناعي على الحياة العملية للمرأة" إلى أن استخدام الذكاء الاصطناعي في عملية التوظيف، على سبيل المثال، يستبعد النساء من الترقيات

وجدت إحدى الدراسات التي يستشهد بها التقرير، والتي تضمنت 21 تجربة تتكون من أكثر من 60000 إعلان وظائف مستهدف أن "تعيين جنس المستخدم إلى "أنثى" أدى إلى عدد أقل من حالات الإعلانات المتعلقة بالوظائف ذات الأجور المرتفعة مقارنة بالمستخدمين الذين يختارون "ذكر" كجنسهم.

وعلى الرغم من أن هذا التحيز بالذكاء الاصطناعي في التوظيف معروف جيدًا، لكنه لن يختفي في أي وقت قريب.

ويقول تقرير اليونسكو: «أظهرت دراسة أُجريت عام 2021 أدلة على إعلانات الوظائف المنحرفة حسب الجنس على Facebook حتى عندما أراد المعلنون جمهورًا متوازنًا بين الجنسين».

غالبًا ما تكون مسألة بيانات متحيزة ستستمر في إصابة الأدوات بالذكاء الاصطناعي، وتهدد عوامل القوى العاملة الرئيسة مثل التنوع والإنصاف والشمول.

قد تكون ممارسات التوظيف التمييزية واحدة فقط من مزيج من المخاطر القانونية التي يعرضها الذكاء الاصطناعي التوليدي للمنظمات.

على سبيل المثال، تواجه OpenAI أول دعوى تشهير نتيجة لمزاعم بأن ChatGPT أنتجت معلومات مضللة ضارة.

على وجه التحديد، أنتج النظام ملخصًا لقضية محاكمة حقيقية تضمنت اتهامات ملفقة بالاختلاس ضد مضيف إذاعي في جورجيا.

هذا يسلط الضوء على التأثير السلبي في المنظمات لإنشاء وتبادل المعلومات أُنشئت بالذكاء الاصطناعي.

إنه يؤكد المخاوف بشأن قيام LLMs بتلفيق محتوى كاذب وتشهيري، ما يؤدي إلى الإضرار بالسمعة، وفقدان المصداقية، وتضاؤل ثقة العملاء، وتداعيات قانونية شديدة الخطر.

قد يهمك أيضًا زيادة استخدام الذكاء الاصطناعي في الكثير من القطاعات

انتهاكات الملكية الفكرية

إضافة إلى المخاوف المتعلقة بالتشهير، توجد مخاطر مرتبطة بانتهاكات حقوق الطبع والنشر والملكية الفكرية.

ظهرت كثير من القضايا القانونية البارزةفقد قوضي مطورو أدوات الذكاء الاصطناعي التوليدية بسبب الاستخدام غير السليم المزعوم للمحتوى المرخص.

إن وجود انتهاكات لحقوق الطبع والنشر والملكية الفكرية، إلى جانب الآثار القانونية لمثل هذه الانتهاكات، يشكِّل مخاطر كبيرة للمنظمات التي تستخدم منتجات الذكاء الاصطناعي التوليدية.

يمكن للمؤسسات استخدام المحتوى المرخص على نحو غير صحيح عن طريق الانخراط عن غير قصد في أنشطة مثل الانتحال، والتعديلات غير المصرح بها، والاستخدام التجاري دون ترخيص، وإساءة استخدام المشاع الإبداعي أو المحتوى مفتوح المصدر، ما يعرضها لعواقب قانونية محتملة.

ثم إن نشر منتجات الذكاء الاصطناعي على نطاق واسع يزيد من مخاطر الهجمات الإلكترونية

الخوف بين خبراء الأمن السيبراني هو أنه يمكن استخدام منتجات الذكاء الاصطناعي التوليدية لتحديد واستغلال نقاط الضعف داخل أنظمة معلومات الأعمال؛ نظرًا لقدرة LLMs على أتمتة الترميز واكتشاف الأخطاء، التي يمكن استخدامها من قبل الجهات الفاعلة الخبيثة لاختراق الحواجز الأمنية.

يوجد أيضًا خوف من مشاركة الموظفين عن طريق الخطأ للبيانات الحساسة مع موفري منتجات الذكاء الاصطناعي التابعين لجهات خارجية.

ومن الأمثلة البارزة على ذلك تسريب موظفي Samsung الأسرار التجارية عن غير قصد عن طريق ChatGPT  في أثناء استخدام LLM لمراجعة شفرة المصدر.

نظرًا لفشلهم في إلغاء الاشتراك في مشاركة البيانات، قُدِّمت معلومات سرية عن غير قصد إلى OpenAI.

وعلى الرغم من أن سامسونج وغيرها تتخذ خطوات لتقييد استخدام أدوات الذكاء الاصطناعي التابعة لجهات خارجية على الأجهزة المملوكة للشركة، فلا يزال يوجد قلق من أن الموظفين يمكنهم تسريب المعلومات عن طريق استخدام مثل هذه الأنظمة على الأجهزة الشخصية.

قد يهمك أيضًا كيف يمكن للطفل استخدام الذكاء الاصطناعي في حياته المدرسية؟

وسائل للحدّ من مخاطر الذكاء الاصطناعي

علاوة على هذه المخاطر، سيتعين على الشركات قريبًا التنقل في اللوائح الناشئة والمتنوعة والغامضة إلى حد ما.

على سبيل المثال، سيتعين على أي شخص يوظف في مدينة نيويورك التحقق من أن تقنية التوظيف التي تعمل بنظام الذكاء الاصطناعي لا تنتهك قانون "أداة قرار التوظيف الآلي" في المدينة.

للامتثال للقانون الجديد، سيحتاج أصحاب العمل إلى اتخاذ خطوات مختلفة مثل إجراء عمليات تدقيق تحيز من طرف ثالث لأدواتالتوظيف الخاصة بهم والكشف علنًا عن النتائج.

وسيتوسع نطاق استخدام الذكاء الاصطناعي في التنظيم على المستوى الوطني مع "مخطط شرعة الحقوق بالذكاء الاصطناعي" لإدارة بايدن-هاريس ودوليًّا مع قانون الذكاء الاصطناعي للاتحاد الأوروبي، الذي سيمثل حقبة جديدة من التنظيم لأصحاب العمل.

هذا الغموض المتزايد من اللوائح والمزالق المتطورة هو السبب في أن قادة الفكر مثل Gartner يقترحون بقوة أن الشركات "تمضي قدمًا ولكن لا تفرط في التمحور"، وأنهم "ينشئون فريق عمل يقدم تقاريره إلى رئيس قسم المعلومات والرئيس التنفيذي" للتخطيط لخارطة طريق لتحويل آمن لاستخدام الذكاء الاصطناعي يخفِّف مختلف المخاطر.

القادة الذين يتعاملون مع هذه المعضلة لديهم قرار مهم يتخذونه.

فمن ناحية، يوجد ضغط تنافسي ملح لاحتضان الذكاء الاصطناعي بالكامل.

قد يهمك أيضًا مخاطر الذكاء الاصطناعي في المستقبل

أمثلة حية على تقنين استخدام الذكاء الاصطناعي

ومع ذلك، من ناحية أخرى، ينشأ قلق متزايد لأن استخدام الذكاء الاصطناعي غير المسؤول يمكن أن يؤدي إلى عقوبات شديدة، وإلحاق ضرر كبير بالسمعة، ونكسات تشغيلية كبيرة.

ويكمن القلق في أن القادة، في سعيهم للبقاء في المقدمة، قد يدخلون عن غير قصد قنابل موقوتة محتملة إلى منظمتهم، التي من المتوقع أن تسبب مشكلات كبيرة بمجرد نشر الحلول بالذكاء الاصطناعي وتفعيل اللوائح.

على سبيل المثال، أعلنت الجمعية الوطنية لاضطرابات الأكل (NEDA) مؤخرًا أنها ستتخلى عن موظفي الخط الساخن وتستبدلهم بروبوت الدردشة الجديد، تيسا.

ومع ذلك، قبل أيام فقط من إجراء الانتقال، اكتشفت NEDA أن نظامها كان يروج لنصائح ضارة مثل تشجيع الأشخاص الذين يعانون من اضطرابات الأكل على تقييد السعرات الحرارية وفقدان رطل إلى رطلين في الأسبوع.

أنفق البنك الدولي 1 مليار دولار لتطوير ونشر نظام خوارزمي، يسمى تكافل، لتوزيع المساعدات المالية التي تقول هيومن رايتس ووتش الآن إنها تخلق عدم المساواة.

ويواجه محاميان من نيويورك إجراءات تأديبية محتملة بعد استخدام ChatGPT لصياغة ملف محكمة وجد أنه يحتوي على إشارات عدة إلى قضايا سابقة لم تكن موجودة.

تسلط هذه الحالات الضوء على الحاجة إلى موظفين مدربين تدريبًا جيدًا ومدعومين جيدًا في قلب هذا التحول الرقمي.

فبينما الذكاء الاصطناعي يمكن أن يكون بمنزلة مساعد قيِّم، لكنه يجب ألا يتولى المنصب القيادي.

قد يهمك أيضًا ثورة الذكاء الإصطناعي تغذو حياتنا

مبادئ استخدام الذكاء الاصطناعي المسؤولة في العمل

لمساعدة صناع القرار في تجنب النتائج السلبية مع الحفاظ على قدرتهم التنافسية في عصر الذكاء الاصطناعي، ابتكرنا مبادئ عدة لقوة عاملة مستدامة مدعومة بالذكاء الاصطناعي.

المبادئ هي مزيج من الأُطر الأخلاقية من مؤسسات مثل المؤسسة الوطنية للعلوم وكذلك المتطلبات القانونية المتعلقة بمراقبة الموظفين وخصوصية البيانات، مثل قانون خصوصية الاتصالات الإلكترونية وقانون حقوق الخصوصية في كاليفورنيا.

تشمل خطوات ضمان الاستخدام المسؤول للذكاء الاصطناعي في العمل ما يلي:

الموافقة المستنيرة

الحصول على موافقة طوعية ومستنيرة من الموظفين للمشاركة في أي تدخل مدعوم بالذكاء الاصطناعي بعد تزويد الموظفين بجميع المعلومات ذات الصلة بالمبادرة.

وهذا يشمل غرض البرنامج وإجراءاته والمخاطر والفوائد المحتملة.

المصالح المتوافقة

أن تكون الأهداف والمخاطر والفوائد لكل من صاحب العمل والموظف واضحة وموائمة.

الاشتراك والخروج السهل

يجب على الموظفين الاشتراك في البرامج التي تعمل بنظام الذكاء الاصطناعي دون الشعور بالإكراه أو الإكراه، ويمكنهم بسهولة الانسحاب من البرنامج في أي وقت دون أي عواقب سلبية ودون تفسير.

شفافية المحادثة

عند استخدام وكلاء المحادثة بالذكاء الاصطناعي، يجب على الوكيل الكشف رسميًّا عن أي أهداف مقنعة يهدف النظام إلى تحقيقها عن طريق الحوار مع الموظف.

الذكاء الاصطناعي غير متحيز وقابل للتفسير

حدد بوضوح الخطوات المتخذة لإزالة التحيز وتقليله وتخفيفه في تدخلات الموظفين باستخدام الذكاء الاصطناعي -خاصة بالنسبة للفئات المحرومة والضعيفة- وتقديم تفسيرات شفافة عن كيفية وصول الأنظمة باستخدام الذكاء الاصطناعي إلى قراراتها وإجراءاتها.

التدريب والتطوير على استخدام الذكاء الاصطناعي

توفير التدريب والتطوير المستمر للموظفين لضمان الاستخدام الآمن والمسؤول للأدوات التي تعمل بنظام الذكاء الاصطناعي.

قد يهمك أيضًا الذكاء الاصطناعي.. كيف واكب المغرب هذا التطور السريع؟

الصحة والرفاهية

حدد أنواع الإجهاد أو الانزعاج أو الأذى الناجم عن استخدام الذكاء الاصطناعي وحدِّد خطوات لتقليل المخاطر (على سبيل المثال، كيف سيقلل صاحب العمل من الإجهاد الناجم عن المراقبة المستمرة لسلوك الموظف الذي يستخدم الذكاء الاصطناعي).

جمع البيانات

حدد البيانات التي ستجمعها، إذا كان جمع البيانات ينطوي على أي إجراءات غازية أو تدخلية (على سبيل المثال، استخدام كاميرات الويب في مراقبة العمل من المنزل)، وما الخطوات التي ستتخذها لتقليل المخاطر، والكشف عن أي نية لمشاركة البيانات الشخصية، ومع من، ولماذا.

الخصوصية والأمان 

توضيح بروتوكولات للحفاظ على الخصوصية وتخزين بيانات الموظفين على نحو آمن والخطوات التي ستُتخذ في حالة حدوث خرق للخصوصية.

إفشاء الطرف الثالث

الكشف عن جميع الأطراف الثالثة المستخدمة لتوفير الأصول باستخدام الذكاء الاصطناعي والحفاظ عليها، وما دور الطرف الثالث، وكيف سيضمن الطرف الثالث خصوصية الموظف.

انتقال

إبلاغ الموظفين بالتغييرات في جمع البيانات أو إدارة البيانات أو مشاركة البيانات بالإضافة إلى أي تغييرات في أصول الذكاء الاصطناعي أو علاقات الجهات الخارجية.

القوانين واللوائح

التعبير عن الالتزام المستمر بالامتثال لجميع القوانين واللوائح المتعلقة ببيانات الموظفين باستخدام الذكاء الاصطناعي.

ملاحظة: المقالات والمشاركات والتعليقات المنشورة بأسماء أصحابها أو بأسماء مستعارة لا تمثل الرأي الرسمي لجوَّك بل تمثل وجهة نظر كاتبها ونحن لا نتحمل أي مسؤولية أو ضرر بسبب هذا المحتوى.

ما رأيك بما قرأت؟
إذا أعجبك المقال اضغط زر متابعة الكاتب وشارك المقال مع أصدقائك على مواقع التواصل الاجتماعي حتى يتسنى للكاتب نشر المزيد من المقالات الجديدة والمفيدة والإيجابية..

تعليقات

يجب عليك تسجيل الدخول أولاً لإضافة تعليق.

مقالات ذات صلة