يُعد الذكاء الاصطناعي ثورة تكنولوجية تُغير قواعد العمل والإنتاجية، ومع أدوات مثل شات جي بي تي (ChatGPT)، أصبح الوصول إلى معلومات هائلة وإنتاج محتوى سريعًا أمرًا غير مسبوق، ولكن، خلف هذه القوة الكبيرة تكمن مخاطر جسيمة قد تؤدي إلى نتائج غير محمودة، لا سيما في البيئات المهنية التي تتطلب الدقة والسرية. إن الاستخدام الخاطئ لهذه الأدوات قد يُعرّض الأفراد والشركات لمشكلات قانونية، وأضرار مادية، وفقدان للمصداقية.
وفي هذا المقال، نوضح لك أهم مخاطر استخدام شات جي بي تي، أحد أهم وأشهر أدوات الذكاء الاصطناعي، لا سيما عند استخدامها في مجال العمل، فالاستخدام الخاطئ قد يؤدي إلى ما لا يُحمد عقباه.
أبرز 6 مخاطر لاستخدام شات جي بي تي في الشركات
لم يعد استخدام الذكاء الاصطناعي اختيارًا شخصيًا أو رفاهية يمكن الاستغناء عنها، بل أصبح أمرًا ضروريًّا من أجل إنجاز الأعمال والمهمات، وكذلك من أجل الحفاظ على التنافسية وعدم التخلف عن الآخرين بخطوات واسعة، وهو ما يحتوي كثيرًا من الفوائد ويتضمن أيضًا بعض المخاطر التي يمكن أن يكون لها تبعات كبيرة.
1. المعلومات الخاطئة وهلوسة الذكاء الاصطناعي
قبل كل شيء، من المهم فهم ظاهرة تُعرف باسم هلوسة الذكاء الاصطناعي (AI Hallucination). لا يعني هذا أن الذكاء الاصطناعي يرى أشياء غير موجودة، بل هو مصطلح تقني يصف ميل نماذج اللغة الكبيرة إلى اختلاق معلومات غير صحيحة أو مصادر وهمية وتقديمها بثقة تامة على أنها حقائق.

قد تكون المعلومات الخاطئة هي أكبر الأخطار في التعامل مع الذكاء الاصطناعي على وجه العموم، وشات جي بي تي على وجه الخصوص، إذ لا يتحقق الذكاء الاصطناعي من المعلومات على نحو يجعلك تثق به وبالمخرجات التي يقدمها إليك على نحوٍ كامل. فهو يتنبأ بالكلمات وفق مجموعة من الأنماط التي تدرب عليها وتعلّمها، إضافة إلى نماذج اللغة الكبيرة، وهذه من أبرز أخطاء الذكاء الاصطناعي.
وهو ما يجعل الذكاء الاصطناعي قادرًا على كتابة مواضيع ومقالات ومستندات وملخصات كبيرة في وقت قياسي، لكنها لا تكون دقيقة وتحتوي بعض المعلومات الخاطئة التي قد تبدو قابلة للتصديق ضمن سياق الموضوع. وقد يقدم لك الذكاء الاصطناعي هذه المعلومات على شكل بيانات غير دقيقة أو مصادر وهمية أو قصص وقضايا غير موجودة.
وتظهر أخطاء الذكاء الاصطناعي في أمور لا تتعلق بالمعلومات مثل الجداول والحسابات التي يمكن أن يخطئ فيها عند إجراء العمليات الحسابية أو تطبيق المعادلات. ويمكن التحقق من هذا الأمر إذا صحّحت المعلومة ونبّهت الذكاء الاصطناعي، فسيعتذر ويعترف بخطئه. وهو ما يوضح أنه لا يقدم المعلومات الصحيحة في كل الأوقات.
في بيئة العمل، قد تحتاج إلى استخدام شات جي بي تي في إعداد عرض تقديمي أو تقديم ملخص أو تقرير دون إجراء عملية مراجعة دقيقة. وهو ما قد يعرضك لنشر معلومات خاطئة، وهو ما يضرّ بمصداقيتك ومصلحة عملك، وقد يؤثر في وضعك داخل الشركة؛ لذا أنت تحتاج إلى مراجعة المعلومات والمخرجات الواردة من الذكاء الاصطناعي بصورة دقيقة ودائمة، وعدم الاستناد إلى هذه المخرجات والاطمئنان إليها.
2. خطر الخصوصية عند استخدام الذكاء الاصطناعي
قد تعتقد أن استخدامك لأدوات الذكاء الاصطناعي، ومن بينها شات جي بي تي، آمن، لكن أكبر الأخطار التي يجب أن تحذر منها عند استخدامك لهذه الأدوات هي أخطار الخصوصية؛ إذ قد يشارك الذكاء الاصطناعي المعلومات الخاصة بك مع الآخرين دون قصد، وبذلك تصبح بياناتك وبيانات عملائك والمعلومات المهمة والأرقام والأفكار عرضة للانتشار والوقوع في أيدي الآخرين بسبب الذكاء الاصطناعي، وتكمن المشكلة في أن الخصوصية في الذكاء الاصطناعي لا تزال منطقة رمادية.
وحينئذ لا بد من التوضيح أن أدوات الذكاء الاصطناعي، ومن بينها شات جي بي تي، لا تعمل على سرقة البيانات منك أو من غيرك، لكنها تستخدم كل المدخلات كما هي كأدوات للتدريب. وبذلك قد تُستخدم لاحقًا في الدردشة مع الآخرين أو في الإجابة عن أسئلتهم، أو قد تُعرض لأشخاص لم يطلبوها، ضمن المعلومات والبيانات التي تُعرض لهم من مواقع مختلفة على الإنترنت.
وبذلك قد تتسرب المعلومات والعقود والأفكار والمعاملات الخاصة بك وبشركتك وبعملائك إلى مواقع أخرى على الإنترنت حينما تشاركها مع أدوات الذكاء الاصطناعي، فلا يمكنك السيطرة على هذه المواد، وهو ما قد يؤدي إلى أضرار كبيرة على المستوى المادي والمعنوي.
وللعلم، فإن بعض الشركات التي تعمل على أدوات الذكاء الاصطناعي تقدم حسابات مؤمنة ومخصصة للعمل مع الشركات والمؤسسات التي تتطلب السرية. فيعتمد الأمر على وجود أوامر لأدوات الذكاء الاصطناعي بعدم تخزين البيانات وعدم استخدامها في عملية التدريب. وغالبًا ما تكون هذه الأدوات مدفوعة ومرتبطة باشتراكات معينة وفتراتٍ زمنية قد تتغير من وقت لآخر.
حتى لا تتعرض لمخاطر الخصوصية عند استخدامك لتطبيقات الذكاء الاصطناعي، ومن بينها تطبيق شات جي بي تي، ينصح الخبراء بأن تستخدم نموذج الذكاء الاصطناعي الذي توافره المؤسسة أو الشركة التي تعمل فيها الذي غالبًا ما يكون مخصصًا لها وخاضعًا لإجراءات الخصوصية والأمن السيبراني. ويُنصح بعدم استخدام الحساب الشخصي الخاص بك إلا في الأمور الشخصية، وخارج نطاق العمل، وبعيدًا عن المعلومات والبيانات التي تخص الشركة والعملاء.
3. خطر التحيز في الذكاء الاصطناعي
على الرغم من محاولات الشركات التي تقدم أدوات الذكاء الاصطناعي للابتعاد عن التحيز والحفاظ على الحيادية وعدم الخروج عن النصوص والآداب التي تحكم الناس والأعمال؛ فإن أدوات الذكاء الاصطناعي تعتمد في عملها على كميات كبيرة من المقالات والصور والأبحاث والبيانات والفيديوهات التي وضعها أشخاص يحملون آراء وتوجهات وتحيزات. وبذلك يمكن لأدوات الذكاء الاصطناعي في بعض الأحيان أن تظهر هذه التحيزات دون قصد.

في حالات عدة، يستخدم الناس الذكاء الاصطناعي في بيئة العمل من أجل إنجاز بعض المهام، فينتهي الأمر بالتحيز. وهو ما يمكن أن يحدث مثلًا عند استخدام إحدى أدوات الذكاء الاصطناعي للاختيار بين المتقدمين لوظيفة معينة، فتستبعد الأداة بعض المتقدمين الذين ينتمون مثلًا لخلفية عرقية معينة دون قصد من الشركة أو الأشخاص الذين استخدموا الأداة، وهو ما يؤدي إلى ضرر كبير لا يتعلق فقط بالمتقدمين للوظيفة، وإنما يتعلق بالشركة وسياستها وسمعتها، وقد يؤدي إلى رفع قضايا قانونية كبيرة ومكلفة.
4. الانحراف بسبب التفاعل
قد تعتقد أن أدوات الذكاء الاصطناعي، ومن بينها شات جي بي تي، تستمد المؤثرات الخاصة بها من الخارج، أي من المعلومات والبيانات والآراء الموجودة على الإنترنت؛ لكن أدوات الذكاء الاصطناعي تتأثر كثيرًا بسياق الحديث والتفاعل معها، لا سيما مع الأدوات التي تتمتع بميزة الذاكرة أو ميزة تتبع الجلسات المستمرة، إذ يمكنها أن تتذكر تاريخ الأحاديث والدردشات التي أجريتها في الفترات الأخيرة.
وبذلك، يتأثر روبوت الدردشة شات جي بي تي بالتجارب والسياقات التي مرّت في الدردشة بينكما. فعلى سبيل المثال، إذا أخبرت الروبوت بتجربة ما، سواء كانت سلبية أو إيجابية في العمل، ثم طلبت منه بعد ذلك استشارة أو نصيحة حول أحد المواقف أو الموظفين أو الصفقات في العمل، فغالبًا سيتأثر بالتجربة التي حكيتها من قبل، وسيكون له رد فعل يتناسب مع سياق الحديث بينكما. وهو ما يعد انحرافًا قد يجعل الذكاء الاصطناعي صدى لما تحب أن تسمعه، إذ يقدّم الآراء التي ترضيك والتي استنتجها من آرائك وسياق الحوار بينكما.
وبعد مرحلة، قد يكون الذكاء الاصطناعي قد انحرف تمامًا وبدأ يتبنى وجهات نظرك، وبذلك لا يصلح لأن يكون مستشارًا لك أو حتى أداة تستخدمها في إنجاز المهام والأعمال. وغالبًا ستكون الإرشادات الصادرة عن شات جي بي تي إرشادات خاطئة؛ لأنها تشوهت بالدردشات السابقة التي تحمل التوجهات والمشاعر الشخصية الخاصة بك، وهو ما يعد أحد أهم أخطار استخدام أدوات الذكاء الاصطناعي، وعلى رأسها شات جي بي تي، في بيئة العمل.
5. أخطار الملكية الفكرية والذكاء الاصطناعي
على الرغم من أن معظم أدوات الذكاء الاصطناعي تخبرك أن ما تنتجه لا يتعارض مع الملكية الفكرية، وأنها تحترم أفكارَ وحقوقَ الآخرين؛ فإن أدوات الذكاء الاصطناعي في الغالب تتدرب على المحتوى الموجود على الإنترنت من شعارات وصور ومقاطع فيديو ومقاطع صوت، ومعظم هذه المواد تعود لأشخاص آخرين حتى وإن لم يعرفهم روبوت الدردشة.
وبذلك يمكنك أن تنتهك حقوق الملكية الفكرية وأنت تستخدم إحدى أدوات الذكاء الاصطناعي في صناعة محتوى أو إنشاء شعار أو مقطع فيديو دون قصد، وهو ما قد يعرضك لمخاطر عظيمة، تتضمن الحظر القانوني والغرامة والسجن في بعض الأحوال.

عند استخدام أدوات الذكاء الاصطناعي في العمل من أجل إنتاج المحتوى، يجب أن يكون الأمر تحت غطاء قانوني من خلال استشارة الفريق القانوني في الشركة، وذلك حتى لا تكون المخاطر متعلقة بك وحدك. وبذلك، يجب أن تحصل على تصريح رسمي من الشركة لاستخدام أدوات الذكاء الاصطناعي لإنشاء ذلك المحتوى.
وعلى المستوى العام، فما زالت قوانين حقوق الملكية الفكرية والنشر الخاصة بالذكاء الاصطناعي لم تتضح بعد، لكن ثمة كثيرًا من القضايا الكبيرة المرفوعة على شركات ومؤسسات وأشخاص من قبل مؤسسات وشركات أخرى، وربما من قبل أشخاص وفنانين ومؤلفين. وهو ما قد يحتاج إلى سنوات طويلة من أجل بلورة القوانين التي تتناسب مع طريقة عمل الذكاء الاصطناعي، بما يحفظ حقوق أصحاب الملكية الفكرية ويمنح الحرية أيضًا لأدوات الذكاء الاصطناعي في أداء المهام المطلوبة منها.
6. أخطاء استخدام شات جي بي تي في بيئة العمل وأضراره على الموظفين
ثمة كثير من أخطاء الاستخدام عندما يتعلق الأمر بأدوات الذكاء الاصطناعي في بيئة العمل، وعلى رأسها تطبيق شات جي بي تي. فقد يستخدم بعض الأشخاص في بيئة العمل روبوت الدردشة لأمور شخصية خارج نطاق العمل، وهو ما يجعله يحكي عن بعض الأسرار والحكايات التي قد يُسرِّبها الروبوت دون قصد، أو يتيح لأشخاص آخرين من داخل بيئة العمل الاطلاع عليها، وهو ما يعد أمرًا محرجًا وخارجًا عن إطار العمل.
كذلك، فإن استخدام تطبيقات الذكاء الاصطناعي في كل كبيرة وصغيرة قد يؤدي إلى ضعف المهارات الفكرية، ومع الوقت قد يصبح الشخص غير قادر على التعامل مع المشكلات وحلها بنفسه في بيئة العمل. وهو ما يجعله أقل كفاءة للاحتفاظ بوظيفته والترقي لوظائف أخرى؛ لذا يجب أن يكون الشخص حذرًا في استخدام أدوات الذكاء الاصطناعي بجانب استخدام مهاراته الشخصية.
الأمر الآخر هو أن الاعتماد على تطبيق واحد من تطبيقات الذكاء الاصطناعي، مثل شات جي بي تي، قد يعرض الشخص أو المؤسسة لعدم القدرة على اكتشاف أخطائِهما بعد مدة. وعلى هذا، يجب الاعتماد على أكثر من تقنية من تقنيات الذكاء الاصطناعي، والموازنة والمقارنة بين المخرجات عن طريق النقاش والأسئلة، من أجل الحصول على ناتج متوازن بعيد عن التحيز والمغالطة.
كيف تتجنب مخاطر الذكاء الاصطناعي؟ (دليل الممارسات الآمنة)
إن فهم مخاطر الذكاء الاصطناعي هو الخطوة الأولى نحو الاستخدام الآمن. إليك دليل عملي للممارسات الفضلى:
-
تحقق دائمًا من المعلومات: تعامل مع مخرجات الذكاء الاصطناعي كمسودة أولية تحتاج إلى مراجعة وتدقيق، وليس كحقيقة نهائية.
-
لا تشارك بيانات حساسة: تجنب إدخال أي معلومات سرية تخص الشركة، العملاء، أو بياناتك الشخصية في النسخ العامة من هذه الأدوات.
-
استخدم النسخ المخصصة للأعمال: إذا كانت شركتك توفر نسخة خاصة ومؤمنة، فاستخدمها دائمًا للمهام المتعلقة بالعمل.
-
راجع النتائج بحثًا عن التحيز: كن ناقدًا للمخرجات، خاصة في مجالات حساسة مثل التوظيف أو التسويق، وتأكد أنها لا تعكس أي تحيزات غير مقبولة.
-
استخدمه أداة مساعدة لا بديلًا: حافظ على مهاراتك في التفكير النقدي وحل المشكلات. استخدم الذكاء الاصطناعي لتسريع عملك، وليس للقيام به بالكامل نيابة عنك.
هل شات جي بي تي آمن للاستخدام؟
يعتمد ذلك على طبيعة الاستخدام. هو آمن بشكل عام للاستفسارات العامة وغير الحساسة، لكن عند استخدامه في العمل أو لإدخال بيانات شخصية، فإنه يمثل خطرًا على الخصوصية ما لم تستخدم نسخة مؤسسية مؤمنة تضمن عدم استخدام بياناتك للتدريب.

ما أبرز مشاكل الذكاء الاصطناعي في بيئة العمل؟
أبرز المشكلات هي: خطر تسريب المعلومات السرية، إمكانية الحصول على معلومات خاطئة (هلوسة)، التحيز غير المقصود في اتخاذ القرارات، انتهاكات حقوق الملكية الفكرية، وتراجع المهارات الأساسية للموظفين.
استخدام شات جي بي تي بوعي
في النهاية، إن السلاح الأكبر لدى المحتالين في عمليات الاحتيال الاستثماري وغيرها هو الطمع، وبالمثل، فإن أكبر خطر في التعامل مع الذكاء الاصطناعي هو الثقة العمياء والرغبة في الحصول على نتائج سريعة دون جهد. إن سلبيات الذكاء الاصطناعي لا تلغي فوائده، لكنها تدعونا إلى استخدام هذه الأدوات القوية بوعي وحذر ومسؤولية، لنكون نحن من يقودها، لا هي من تقودنا.
وفي ختام هذا المقال، نرجو أن نكون قد قدمنا لك المتعة والإضافة، ويسعدنا كثيرًا أن تشاركنا رأيك في التعليقات، وأن تشاركَ المقال على مواقع التواصل لتعم الفائدة على الجميع.
يجب عليك تسجيل الدخول أولاً لإضافة تعليق.