الذكاء الاصطناعي والأمن السيبراني 2025 تحديات ومواجهة الهجمات

لقد عزز الذكاء الاصطناعي سباق التسلح في مجال الأمن السيبراني خلال العام الماضي، ولن تشهد الأشهر الـ12 المقبلة أي هدوء، ولهذا آثار كبيرة على فرق الأمن السيبراني في الشركات وأصحاب العمل، إضافة إلى مستخدمي الإنترنت العاديين، فبينما تساعد تقنية الذكاء الاصطناعي المدافعين في تحسين الأمن، لا يهدر المخربون وقتًا في استغلال الأدوات المدعومة بالذكاء الاصطناعي؛ لذا نتوقع ارتفاعًا في عمليات الاحتيال، والهندسة الاجتماعية، والاحتيال على الحسابات، والتضليل، وغيرها من التهديدات، إليك ما يمكنك توقعه من عام 2025.

التهديدات المدعومة بالذكاء الاصطناعي ما يجب الحذر منه

في مطلع عام 2024، حذَّر المركز الوطني للأمن السيبراني في المملكة المتحدة (NCSC) من أن الذكاء الاصطناعي يُستخدم فعلًا من قِبل جميع أنواع الجهات الفاعلة في مجال التهديدات، وأنه «سيزيد بالتأكيد حجم وتأثير الهجمات السيبرانية خلال العامين المقبلين». ويتجلى هذا التهديد على نحو أكثر حدة في سياق الهندسة الاجتماعية، فيُمكن للذكاء الاصطناعي التوليدي (GenAI) مساعدة الجهات الخبيثة في تصميم حملات قوية ومقنعة بلغات محلية سليمة. وفي مجال الاستطلاع، يُمكن للذكاء الاصطناعي أتمتة عملية تحديد الأصول المعرضة للخطر على نطاق واسع.

الذكاء الاصطناعي يهدد الأمن السيبراني

وبينما ستستمر هذه الاتجاهات بالتأكيد حتى عام 2025، فقد نشهد أيضًا استخدام الذكاء الاصطناعي في:

  • تجاوز المصادقة: يتم استخدام تقنية Deepfake لمساعدة المحتالين في انتحال هوية العملاء في عمليات التحقق القائمة على الصور الشخصية والفيديو لإنشاء حسابات جديدة والوصول إلى الحسابات.
  • اختراق البريد الإلكتروني للشركات (BEC): يُستخدم الذكاء الاصطناعي مجددًا لأغراض الهندسة الاجتماعية، ولكن هذه المرة لخداع متلقي الشركة لتحويل أموال إلى حساب خاضع لسيطرة المحتال. ويُمكن استخدام الصوت والفيديو المُزيَّفين بعمق لانتحال شخصيات الرؤساء التنفيذيين وغيرهم من كبار القادة في المكالمات الهاتفية والاجتماعات الافتراضية.
  • عمليات انتحال الشخصية: ستوفر نماذج اللغات الكبيرة مفتوحة المصدر (LLMs) فرصًا جديدة للمحتالين. فمن خلال تدريبهم على البيانات المُجمعة من حسابات التواصل الاجتماعي المُخترقة أو المتاحة للعامة، يُمكن للمحتالين انتحال شخصية الضحايا في عمليات اختطاف افتراضية وغيرها من عمليات الاحتيال، المُصممة لخداع الأصدقاء والعائلة.
  • احتيال المؤثرين: على نحو مماثل، من المتوقع أن يستخدم المحتالون الذكاء الاصطناعي (GenAI) في عام 2025 لإنشاء حسابات وهمية أو مكررة على منصات التواصل الاجتماعي، تُقلِّد المشاهير والمؤثرين وغيرهم من الشخصيات المعروفة. وسيتم نشر فيديوهات مُزيَّفة لإغراء المتابعين بتقديم معلوماتهم الشخصية وأموالهم، على سبيل المثال في عمليات احتيال الاستثمار والعملات المشفرة. وسيزيد هذا من الضغط على منصات التواصل الاجتماعي لتوفير أدوات وشارات فعَّالة للتحقق من الحسابات، وسيُلزمك باليقظة.
  • التضليل: ستستغل الدول المعادية والجماعات الأخرى الذكاء الاصطناعي لتوليد محتوى مزيف بسهولة، بهدف إغراء مستخدمي وسائل التواصل الاجتماعي السذج بمتابعة حسابات مزيفة. ويمكن بعد ذلك تحويل هؤلاء المستخدمين إلى أدوات تضخيم إلكترونية لعمليات التأثير، بطريقة أكثر فاعلية وأصعب كشفًا من مزارع المحتوى/ التصيد.
  • كسر كلمة المرور: الأدوات التي تعتمد على الذكاء الاصطناعي قادرة على كشف بيانات اعتماد المستخدم اعتمادًا جماعيًّا في ثوانٍ لتمكين الوصول إلى شبكات الشركة والبيانات، إضافة إلى حسابات العملاء.

خصوصية البيانات في مرمى الذكاء الاصطناعي عام 2025

لن يكون الذكاء الاصطناعي مجرد أداة بيد الجهات الفاعلة في مجال التهديدات خلال هذا العام، بل قد يُفاقم أيضًا خطر تسرب البيانات. تتطلب نماذج ماجستير إدارة الأعمال كميات هائلة من النصوص والصور والفيديوهات لتدريبها. وغالبًا ما تكون بعض هذه البيانات حساسة، عن طريق الصدفة، مثل البيانات الحيوية، أو معلومات الرعاية الصحية، أو البيانات المالية. في بعض الحالات، قد تُغير شركات التواصل الاجتماعي وغيرها من الشركات الشروط والأحكام لاستخدام بيانات العملاء لتدريب النماذج.

الذكاء الاصطناعي وتسريب البيانات

حين أن يستوعبها نموذج الذكاء الاصطناعي، تُمثل هذه المعلومات خطرًا على الأفراد، في حال اختراق نظام الذكاء الاصطناعي نفسه، أو في حال مشاركة المعلومات مع آخرين عبر تطبيقات GenAI المُثبَّتة على منصة LLM. ويُخشى على مستخدمي الشركات من مشاركة معلومات حساسة متعلقة بالعمل دون قصد عبر مُحفِّزات GenAI. ووفقًا لأحد استطلاعات الرأي، كشفت خُمس الشركات البريطانية عن بيانات حساسة محتملة للشركة من طريق الخطأ باستخدام موظفيها لـ GenAI.

الذكاء الاصطناعي للمدافعين في عام 2025

الخبر السار هو أن الذكاء الاصطناعي سيؤدي دورًا متزايدًا في عمل فرق الأمن السيبراني، مع دمجه في المنتجات والخدمات الجديدة. وبناءً على تاريخ طويل من الأمن المدعوم بالذكاء الاصطناعي، ستساعد هذه العروض الجديدة في:

  • إنشاء بيانات اصطناعية لمستخدمي التدريب وفرق الأمان حتى أدوات أمان الذكاء الاصطناعي.
  • تلخيص تقارير استخبارات التهديدات الطويلة والمعقدة للمحللين وتسهيل اتخاذ القرارات أسرع بشأن الحوادث.
  • تعزيز إنتاجية SecOps بوضع التنبيهات في سياقها وإعطائها الأولوية للفرق الممتدة، وأتمتة سير العمل للتحقيق والإصلاح.
  • مسح كميات كبيرة من البيانات بحثًا عن علامات السلوك المشبوه.
  • رفع مهارات فرق تكنولوجيا المعلومات بوظيفة (المساعد) المضمنة في المنتجات المختلفة للمساعدة في تقليل احتمالية حدوث أخطاء في التكوين.

ومع ذلك، يجب على قادة تكنولوجيا المعلومات والأمن أيضًا إدراك حدود الذكاء الاصطناعي وأهمية الخبرة البشرية في عملية صنع القرار. سيتطلب عام 2025 تحقيق توازن بين الإنسان والآلة للحد من مخاطر الهلوسة وتدهور النماذج وغيرها من العواقب السلبية المحتملة. فالذكاء الاصطناعي ليس حلًا سحريًا، بل يجب دمجه مع أدوات وتقنيات أخرى لتحقيق أفضل النتائج.

تحديات الذكاء الاصطناعي في الامتثال والتنفيذ

لا يحدث مشهد التهديدات وتطوير أمن الذكاء الاصطناعي في فراغ. فالتغيرات الجيوسياسية في عام 2025، ولا سيما في الولايات المتحدة، قد تؤدي إلى تحرير قطاعي التكنولوجيا ووسائل التواصل الاجتماعي. وهذا بدوره قد يُمكِّن المحتالين وغيرهم من الجهات الخبيثة من إغراق المنصات الإلكترونية بتهديدات مُولَّدة من الذكاء الاصطناعي.

الذكاء الاصطناعي والتهديدات السيبرانية

في غضون ذلك، لا يزال هناك بعض الغموض في الاتحاد الأوروبي (EU AI Act) بشأن تنظيم الذكاء الاصطناعي؛ ما قد يُصعِّب الأمور على فرق الامتثال. وكما أشار خبراء قانونيون، لا تزال هناك حاجة إلى وضع قواعد ممارسة وتوجيهات، وحساب المسؤولية عن أعطال أنظمة الذكاء الاصطناعي. وقد يُغيِّر الضغط من قطاع التكنولوجيا كيفية تطبيق قانون الذكاء الاصطناعي في الاتحاد الأوروبي عمليًا.

ومع ذلك، من الواضح أن الذكاء الاصطناعي سيُحدث تغييرًا جذريًا في طريقة تفاعلنا مع التكنولوجيا في عام 2025، سواءً للأفضل أو للأسوأ. فهو يُقدم فوائد هائلة للشركات والأفراد، ولكنه يُثير أيضًا مخاطر جديدة يجب إدارتها. ومن مصلحة الجميع العمل على نحو وثيق لضمان تحقيق ذلك. ويجب على الحكومات ومؤسسات القطاع الخاص والمستخدمين النهائيين القيام بدورهم والعمل معًا لتسخير إمكانات الذكاء الاصطناعي مع الحد من مخاطره.

ملاحظة: المقالات والمشاركات والتعليقات المنشورة بأسماء أصحابها أو بأسماء مستعارة لا تمثل الرأي الرسمي لجوَّك بل تمثل وجهة نظر كاتبها ونحن لا نتحمل أي مسؤولية أو ضرر بسبب هذا المحتوى.

ما رأيك بما قرأت؟
إذا أعجبك المقال اضغط زر متابعة الكاتب وشارك المقال مع أصدقائك على مواقع التواصل الاجتماعي حتى يتسنى للكاتب نشر المزيد من المقالات الجديدة والمفيدة والإيجابية..

تعليقات

يجب عليك تسجيل الدخول أولاً لإضافة تعليق.

مقالات ذات صلة