القدرة القضائية والأخلاق في السيارات ذاتية القيادة

1 ملخص:


يُحدث مفهوم الذكاء الاصطناعي (AI) ثورة هائلة في كل جزء من المجتمع الموجه نحو التكنولوجيا الحديثة في جعل الحياة أسهل بكثير للعيش. يطبق العديد من الباحثين آليات التعلم العميق في تطوير القيادة الذاتية. الهدف الرئيسي من هذا المشروع هو التحقيق في هذا الاتجاه القادم للسيارات ذاتية القيادة وفهمه والتحقيق في قدرتها على إصدار الأحكام ومعرفة ما إذا كان يمكن تنفيذ الأخلاق في هذه الآلات التي تهدف إلى استبدال البشر ذوي الخبرة. يركز هذا التقرير على معالجة الآثار الاجتماعية لهذه التكنولوجيا التخريبية ، بالإضافة إلى تحديد قضاياها الأساسية فيما يتعلق بالسلامة والاهتمامات الأخرى. يهدف هذا المشروع أيضًا إلى تقديم توصيات مجدية لحل بعض المشكلات الرئيسية ، نظرًا لأن السيارات ذاتية القيادة تعتبر مستقبل النقل. (تشينغ راو ، يلينا Frtunikj ، 2018)


2 مقدمة:


لم تعد السيارات ذاتية القيادة مجرد فكرة ولكنها تتشكل في الواقع وفي العقود القادمة ، من المتوقع أن تصل إلى مستويات عالية من الأتمتة. إن امتلاك آلة لتحل محل مهارات القيادة البشرية هو ما يعرف بذكاء السيارة. يتيح ذلك للمركبة التعلم من خلال التجربة والتحسين المستمر لتصبح في النهاية أفضل من السائق البشري. هناك العديد من المنظمات التي تتنافس مع شركات التصنيع لرفع مستوى الأتمتة. هذه الطبقات الإضافية من الذكاء المعرفي لأداء السيارة الأساسي.



فشلت سياسات السلامة الحالية في تحديد المخاوف الجديدة في القيادة الذاتية. ذكر العديد من الباحثين أن مشكلتهم الرئيسية وفقًا لهم هي أنه يتم نقل المزيد والمزيد من التحكم إلى هذه الآلات مقارنة بالبشر على الرغم من أن البشر أكثر خبرة وأكثر وعياً بالموقف من حولهم. تتلقى هذه الأجهزة معلوماتها من بيئتها باستخدام أجهزة الاستشعار والكاميرات و LIDAR وبالتالي ، يقوم المبرمجون بإعادة بناء الأحداث حول حوادث السيارات بدقة كبيرة من أجل تحليل القرار المنطقي وراء ذلك لتدريب المزيد من الآلات على نفس المستوى من الدقة.


2.1 بيان المشكلة والسياق:


قد تكون السيارات ذاتية القيادة هي أحدث الاتجاهات ، ولكنها تأتي مع الكثير من المشاكل والمخاطر ، مثل أي تقنية جديدة. تتطور التكنولوجيا على نطاق واسع ، لذا فإن البقاء محدثًا أمر ضروري للغاية لتنفيذ هذا المشروع. مفهوم الثقة والأمان المتضمن في هذه التكنولوجيا هو مفهوم شخصي.



بعض المشكلات المتعلقة بالسيارات ذاتية القيادة كما هو مذكور هي:


المسئولية: من سيكون المسئول عن الحوادث الناتجة - الرجل أم الآلة؟ من سيتحمل المسؤولية القانونية؟

تغيير البنى التحتية للطرق: كيف ستتعامل السيارة مع الطرق المحطمة أو ظروف الطريق غير المتوقعة؟

الأخلاق: هل يمكن برمجة الأخلاق في سيارات ذاتية القيادة؟ (نوح جودال ، 2016)

دعوات الحكم: هل سيتمكنون من إصدار الحكم الصحيح؟

الاتصال بالعين: هل ستكون المركبة قادرة على استبدال التدخل البشري الفعلي؟

التكلفة: إلى أي مدى ستكون هذه التكنولوجيا الصاعدة ميسورة التكلفة؟

انعدام الثقة: هل سيتمكن البشر من الوثوق التام بالآلات في حياتهم؟

سيحاول هذا التقرير تركيز جميع القضايا المذكورة أعلاه على مستوى عالٍ والتركيز بشكل أساسي على مسؤولية السيارات ذاتية القيادة لإجراء مكالمات حكمية صحيحة والقدرة على برمجة الأخلاقيات في الآلات وجعلها جزءًا رَئِيسِيًّا من اتخاذ قرار.



2.2 الهدف والأهمية:


يُعتقد أن السيارات ذاتية القيادة هي مستقبل النقل ، ولكن هناك العديد من السيناريوهات التي لا تكون فيها السيارات جاهزة للاستخدام حتى الآن. كما أنها لم يتم قبولها أو الوثوق بها تمامًا من قبل البشر. يواجهون قضايا مختلفة عند تعرضهم لمواقف مختلفة ، فيما يتعلق بالمكالمات القضائية والمسؤولية والأخلاق. في بعض الأحيان ، يجب على السائقين اتخاذ قرارات فورية بناءً على العقبات التي يواجهونها على الطريق. يمكن أن يختلف هذا من كونه شيئًا بسيطًا مثل التوقف في حالات الطوارئ التي يمكن برمجتها بسهولة في سيارة مستقلة إلى شيء أكثر أخلاقية مثل الاختيار بين ضرب طفل على الطريق أو ضرب صندوق من الورق المقوى يسد المسار.



غالبًا ما تجد السيارات ذاتية القيادة صعوبة في إصدار أحكام بشأن التداعيات التي يمكن أن تسببها أفعالها ، مثل تراكم على الطريق السريع بسبب الكبح السريع. (Anna Skarbek-Żabkin، Marcin Szczepanek، 2018) لا يمكن إصدار كل حكم تِقْنِيًّا (مع قواعد وحلول خوارزمية محددة يجب اتباعها) ولديك حل مشتق لأن مثل هذه الأحكام قد لا تكون أفضل حكم من حيث مواقف العالم الحقيقي. هذا يتطلب مكونًا بَشَرِيًّا على دراية بالمواقف ويفهم العواقب.



وبالتالي ، من الضروري جِدًّا فهم كيفية اختلاف الآلة (السيارة المستقلة) عن الحكم البشري. القضايا ، مثل الدعوات القضائية والأخلاق ، هي أجزاء رئيسية من الحياة التي قد يحتوي عليها قرار بشري ، وهذا ما يساعد المستخدم على تحديد ما إذا كانت هذه التكنولوجيا آمنة أو كيف يمكن تحسينها ، فهي تساعدنا على معرفة كيفية حدوث هذه المشكلات يمكن تصحيحه وكيف يمكننا دمج المكون البشري في هذه الآلات وتحسين وظائفها. هذه هي الجوانب المختلفة التي سيحاول هذا التقرير تغطيتها بالإضافة إلى محاولة إثبات توصية للتغلب على هذه المشكلات.


2.3 النتيجة المتوقعة:


تواجه المركبات المؤتمتة تحديات أكبر مع الاضطرار إلى اتخاذ قرار سريع حتى مع وجود معلومات وحالات غير كاملة لا يستطيع كل مبرمج توقعها وبرمجتها في الجهاز. التحدي الرئيسي هنا هو الحاجة إلى اتخاذ قرارات عقلانية وأخلاقية مع تزويدهم بما يعادل سنوات من الخبرة البشرية.



ستكون نتيجة هذا التقرير هي معالجة وتحديد المخاطر المختلفة فيما يتعلق بالسلامة الوظيفية في السيارات ذاتية القيادة ، والتحقيق في القدرة الأساسية لهذه التكنولوجيا المتطورة ، وكيف يمكن أن تغير حياتنا سواء جعلها أسهل أو تجعلها بالكامل تتفكك وتسبب المزيد من المشاكل في المستقبل القريب.

 

بصرف النظر عن ذلك ، سيغامر هذا التقرير أيضًا بالمزايا المختلفة لهذه التكنولوجيا الصاعدة نظرًا لأنها تعتبر حتماً مستقبل النقل ولا يمكن إيقاف نموها. ويهدف التقرير أيضًا إلى تقديم توصيات إضافية للتغلب على بعض المشكلات الرئيسية لمحاولة جعل عملية صنع القرار مثل تلك الخاصة بالبشر.



3 التركيز البحثي:


إن مفهوم السيارات ذاتية القيادة نفسه معيب بشدة. يهدف إلى استبدال البشر وسنوات خبرتهم بمحاولة تحسين مستوى المعيشة وجعل القيادة مفهومًا سهلاً ، ولكن في تناقض ، فشل في تطوير مهارات معادلة للتجربة البشرية ، وحتى سد فجوة صغيرة ، فهي تحتاج إلى سنوات تحت التدريب. هذه المركبات لديها احتمالية عالية للاختراق. تعد الثقة في سيارة مستقلة مشكلة أكبر لأن مكالماتهم القضائية ليست سوى تلك المبرمجة ولا يمكن برمجة كل شيء. في حالة وقوع أي حوادث ، من المسؤول عن الآلة أم الإنسان؟ سيحاول البحث التركيز على هذه الجوانب على مستوى عالٍ ويحاول بشكل رئيسي فحص وتقديم توصيات حول القدرات القضائية وأخلاقيات البرمجة في هذه المركبات.


3.1 سؤال البحث:


سيركز هذا البحث بشكل أساسي على قدرة هذه المركبات الذاتية على إجراء مكالمات حكم جيدة ، وبالتالي محاولة الإجابة على السؤال:



هل ستكون المركبات ذاتية القيادة قادرة على إجراء مكالمات حكمية جيدة في ظل المواقف الحرجة وهل يمكن برمجة الأخلاقيات في هذه المركبات ومساعدتها في أن تكون قادرة على استبدال الذكاء البشري لإجراء مكالمات أخلاقية وحكم ظرفية؟


3.2 المنهجية:

المنهجية المستخدمة في تجميع هذا التقرير عبارة عن مراجعة أدبية تقليدية تستند إلى المراجعات الموضوعية للأبحاث السابقة التي أجريت في المجالات ومجالات الاهتمام المعنية وهي السيارات ذاتية القيادة ، والسلامة مع السيارات ذاتية القيادة ، ومعايير السلامة في السيارات ذاتية القيادة. قيادة السيارات. يتضمن هذا التقرير أيضًا تحليل الآثار الاجتماعية المختلفة في التطبيقات العملية التي حدثت في الماضي. قد يشمل ذلك تحليل المجلات والمنشورات والمقالات الصحفية لفهم الأحداث الماضية والاقتباس منها لتقديم توصيات. سيكون بحثًا نَوْعِيًّا يعتمد على البيانات المنهجية التي تم جمعها من الأدبيات المختلفة وسيتم تجميعها وتصنيفها بناءً على التحليلات وسيتم تلخيصها في مراجعة الأدبيات بطريقة موضوعية.

كانت الخطوات المتضمنة في استكمال هذا التقرير ، أولاً تحليل جميع الآداب الحالية لفهم نموذج وعمل السيارات ذاتية القيادة ، وبعد ذلك سيكون تحديد الفجوات المختلفة في هذه الأبحاث التي يمكن أن تساعد في إثبات التوصيات وفهم وتحديد القضايا الأساسية ، ثالثًا ستكون المهمة الرئيسية للتعامل مع هذه القضايا من خلال تقديم توصيات مفيدة يمكن دمجها في المستقبل والعمل عليها لحل المشكلات. يمكن الاطلاع على الخطة التفصيلية التي تم تنفيذها لهذا التقرير في الملحق 1.



4 الخلفية:


حتى اصطدمت سيارة uber ذاتية القيادة وقتلت أحد المشاة البالغ من العمر 49 عامًا في Elaine Herzberg في مارس 2018 ، كانت السيارات ذاتية القيادة تعتبر ابتكارًا ناجحًا وخالٍ من العيوب تمامًا. وقد أدى هذا الحادث إلى إثارة المزيد من الأسئلة فيما يتعلق بسلامتها ، والتقنيات التي تتبعها ، ومن يجب أن يتحمل المسؤولية في حالات مثل هذه المواقف الرهيبة.



4.1 مراجعة الأدبيات:

4.1.1 التصنيف:



يصنف العديد من الباحثين السيارات المستقلة إلى مستويات مختلفة بناءً على درجة الأتمتة المستويات 0 ، 1 ، 2 ، 3 ، 4 ، 5 تتراوح من 0 لا تتضمن أي أتمتة إلى 5 حيث تكون السيارة مؤتمتة بالكامل. يحدد الباحثون أيضًا أن المستويات 0-2 بها شاشات بشرية والمستوى 3 وما بعده بها مراقبة للماكينة ، وبالتالي محاولة تحقيق 0 أو عدم وجود أي تدخل بشري. لديهم أنظمة الإدخال وأجهزة الإخراج وأنظمة التحكم المترابطة بهدف تحديد المواقف المماثلة بناءً على قواعد البرمجة الخاصة بهم والرد على هذه المواقف بطريقة محددة. (Anna Skarbek-Żabkin، Marcin Szczepanek، 2018) تم استخدام تقنية مماثلة لتصنيف مخاطرهم إلى فئات مختلفة تتراوح من 1 إلى 4 حيث 1 لا يطاق و 4 لا يكاد يذكر (روجر وودمان ، آلان إف تي وينفيلد ، كريس هاربر ، ومايك فريزر ، 2012).



4.1.2 النموذج:



تتبع السيارة ذاتية القيادة نموذجًا قِيَاسِيًّا للغاية كما هو موضح في الشكل 1 ، وتحتوي على كاميرات لتحديد الممرات والإشارات ، كما يوجد LIDAR لحساب النطاق الذي تستخدمه هذه المدخلات لحساب التصادمات باستخدام برنامج يرسل إشارات لتغيير عجلة القيادة الموقف وفقًا للموقف بناءً على القواعد والخوارزميات المبرمجة فيه. (إيونوت ألكساندرو وبديستينو ، 2018).



يستخدم Lidar أيضًا لقياس المسافة باستخدام نبضة الضوء ، ويقومون بجمع المعلومات وإنشاء خريطة للملاحة. هذه اللي دار ليست دائما حادة في قياس وجود الأشياء بجانب السيارات ذاتية القيادة ، فهي تتأثر بعوامل مختلفة وأحد هذه العوامل هو السيارات المستقلة الأخرى التي تتداخل إشاراتها مع بعضها البعض ، ومن ثم فهي تستخدم أجهزة الاستشعار كدعم احتياطي للكشف أي تحركات في المناطق المحيطة (كادي ميتز ، 2018).

الشكل 1 - طراز السيارة المستقلة. (المصدر: كيد ميتز ، 2018)


4.1.3 اتخاذ القرار:




تستخدم الآلة خوارزميات التعلم الآلي (الشبكة العصبية العميقة) للتعلم باستمرار ومحاولة توقع قرارات مثل البشر. مناهج التعلم العميق الرئيسية التي تستخدمها السيارات ذاتية القيادة هي إعداد البيانات وتوليد النماذج ونشر النماذج. الهدف الرئيسي في الإعداد هو تجهيز البيانات للتدريب والاختبار ، ويشمل ذلك تنظيف البيانات ، ووضع العلامات عليها وتخزينها. يتضمن إنشاء النموذج تطوير التدريب وتقييم بنى الشبكة والتأكد من تدريب البيانات عن طريق تقليل الخطأ في المخرجات. يتم بعد ذلك تقليم هذا النموذج اَلْمُدَرَّب وتوحيده للأجهزة المستهدفة المحددة خلال مرحلة النشر النهائية. (تشينغ راو ، يلينا Frtunikj ، 2018)

تستخدم الآلة خوارزميات خاضعة للإشراف تحتوي على مجموعة من مجموعة بيانات التدريب ويتم استخدامها في عملية التعلم ، وتستمر الآلة في التعلم حتى يكون لديها خطأ ضئيل. يستخدم خوارزميات غير خاضعة للرقابة لاشتقاق قيمة من البيانات المتاحة ، ويستخدم هذا للكشف عن الأنماط وتقسيم البيانات المتاحة إلى مجموعات فرعية بناءً على أوجه التشابه بينها. وبالتالي ، يُقترح أن تساعد عمليات التعلم الدقيقة هذه في تقليل أخطاء القيادة بأعداد كبيرة جِدًّا. (سافارام رافيندرا ، تيكسليت ، 2017)



بعد أن ناقش العديد من الباحثين كيف يقلل ذلك من الأخطاء ، ناقشوا أيضًا كيف لا تركز أي من هذه الأساليب على الأخلاق كجزء رئيسي من عملية صنع القرار. إن المعضلة الأخلاقية التي تواجهها هذه السيارات المستقلة تتجاوز نطاق القواعد العامة ومجموعات البيانات التي يمكن التنبؤ بها. من المتوقع أن تحل السيارات ذاتية القيادة هذا الموقف على الفور إذا كان لا بد من قبولها في جميع أنحاء العالم. (بيتر نواك ، 2018)



4.1.4 التحيز:



أوضح العديد من الباحثين مسألة اكتمال البيانات. يؤدي عدم اكتمال البيانات إلى قضايا رئيسية مثل القدرة على إصدار الأحكام مثل التحيز في الحكم ، ونقص الأخلاق في الأحكام ، وبالتالي يؤدي إلى انعدام الثقة مع الناس.



يقولون إن السيارة المستقلة هي نوع من مفهوم التعلم الآلي الخاضع للإشراف ، ويجب تعليم النموذج هنا ما يجب القيام به. على سبيل المثال ، إذا تم تدريب السيارة على تحديد السيارات ، عندها فقط لن تتمكن من التعرف على المشاة. قد يكون هذا مثل مشاهد حركة المرور المتغيرة في الحياة الواقعية حيث يكون توقع جميع الحلول الممكنة وتغطية مشاهد العالم الحقيقي بنسبة 100٪ شبه مستحيل. (تشينغ راو ، يلينا فرتونيك ، 2018). يؤدي هذا أيضًا إلى الكثير من انحياز الخوارزميات نظرًا لأن النموذج يُقال فقط ما يجب القيام به ، في حين أن المركبات ذاتية القيادة محايدة وغير متحيزة ، يمكن أن ينتهي بها الأمر إلى التحيز في بعض القرارات. أظهرت بعض الأمثلة تحيزًا عُنْصُرِيًّا مَنْهَجِيًّا في الخوارزمية المستخدمة لغرض التنبؤ. (ديفيد دانكوس ، أليكس جون لندن ، 2017).

إحدى الطرق المحتملة التي يمكن أن يحدث بها التحيز هي عندما تكون البيانات المستخدمة لتدريب الخوارزمية المستخدمة للمركبة متحيزة ، وهذا من شأنه أن يؤدي إلى قرارات متحيزة. يصعب تحديد هذا النوع من التحيز ، ومن الأمثلة على ذلك مجموعة من البيانات التي سيتم استخدامها للتنبؤ وكلها تأتي من جزء واحد من الموقع ، على سبيل المثال ، الحصول على جميع البيانات من بيتسبيرغ لبناء سيارة Google والتي مخصص للاستخدام في جميع أنحاء العالم. سيكون النموذج الناتج ، بالطبع ، متحيزًا لأن النموذج مخصص للعالم بأسره ، لكن البيانات من موقع معين فقط. (ديفيد دانكوس ، أليكس جون لندن ، 2017)



4.1.5 الأخلاق والثقة:




يؤدي التحيز بدوره إلى مفهوم مهم آخر قيد المناقشة وهو الأخلاق ، والافتراض الرئيسي الذي وضعه معظم الباحثين هو أن الشخص الجيد الذي يتمتع بحكم جيد سيعرف متى يكون من الجيد تجاهل القانون نفسه من أجل الحفاظ على روحه أثناء إن الاضطرار إلى دمج هذه القدرة في آلة هو التهديد الرئيسي للمهندسين. على سبيل المثال ، تعتمد القوانين عمومًا على الفطرة السليمة للسائقين ، نادرًا ما تكون السيارة ذاتية القيادة قادرة على اتخاذ أي قرارات من هذا القبيل. يجب أن يكون المهندسون متقدمين على توقع المواقف الأخلاقية المحتملة لإخبار الماكينة بما يجب القيام به في ظل هذه المواقف للنجاة من هذا التحدي. (Noah J. Goodall 2016) إحدى الشركات التي تحاول دمج هذه الاستثناءات هي Google ، وقد أقروا بالسماح لسياراتهم ذاتية القيادة بإجراء استثناءات لحدود السرعة في ظل ظروف حركة المرور المختلفة وحالات الطوارئ مثل الرحلات إلى المستشفيات في ظل سيناريوهات حرجة. ستكون هذه خطوة نحو برمجة الأخلاقيات في السيارات ذاتية القيادة. (أر مكاليستر ، واي جالي ، أ.كيندال ، إم في ويلك ، إيه شاه ، أر سيبولا ، ويلري ، 2017)



إن إدخال الأخلاقيات في السيارات ذاتية القيادة من شأنه أن يمهد طريقه لزيادة مستوى الثقة لأن عامة الناس لا يتوقعون أن تتمتع السيارات بحكمة خارقة ، لكن ثقتهم ستزداد بشكل كبير إذا كانت السيارة قادرة على اتخاذ قرارات عقلانية مع الأخذ في الاعتبار الآثار الأخلاقية لها. سيكون الحكم.



4.1.6 المتانة:



من المتوقع أن تكون المركبات ذاتية القيادة قوية إلى حد ما ، وهذا يعني أنها قادرة على التعامل مع الأخطاء وفي نفس الوقت تكون قادرة على مواصلة عملها الطبيعي حتى في ظل أي ظروف غير طبيعية وحالات غير مرئية. لذلك ، من المتوقع أن تدعم هذه السيارة التغييرات وأن تكون قادرة على التكيف مع بيئة ديناميكية. (روجر وودمان ، آلان إف تي وينفيلد ، كريس هاربر ومايك فريزر ، 2012).


4.1.7 التحليل النقدي:


اقترحت مراجعات الأدبيات المختلفة بعض الثغرات في مجال المركبات المستقلة التي تم تحديدها على أنها:



أولاً ، تقترح معظم الدراسات طرقًا لتشغيل المركبات ذاتية القيادة ، وهي مصممة للطرق أكثر وضوحًا وظروفًا أفضل للدول الغنية المتطورة ، في حين أن سيناريوهات العالم الحقيقي ليست دقيقة للغاية ، فهي مليئة بالمخاطر والتدخلات البشرية والحيوانية بشكل ملحوظ مع كسر العديد من القواعد. نظرًا لوجود العديد من تصميمات السيارات المستقلة التي تركز على الغرب ، يصبح من الصعب جِدًّا تنفيذ هذه التصميمات في مناطق أخرى حول العالم. هذه تؤدي إلى فشل السيارات ذاتية القيادة بشكل بائس في الدول ذات الازدحام الشديد.



ثانيًا ، أثار العديد من الباحثين تساؤلات حول مصداقية هذه البرامج. على سبيل المثال ، إذا كان الموقف يتعلق بشاحنة يمتزج لونها مع لون السحب ، فهل سيتمكن النظام من فصلها عن المحيط؟ (آنا شابكين ، مارسين شتشيبانيك ، 2018)

ثالثًا ، يمكننا أن نرى بوضوح من نموذج التصميم في الشكل 1 أن الحالات المبرمجة في السيارة هي مواقف من المرجح أن تحدث ، مع الأخذ في الاعتبار فقط الحوادث ذات الاحتمالية العالية التي لا تحل المخاطر التي تنطوي عليها السيارات ذاتية القيادة وعدم وجود مكون من القرارات الأخلاقية دمجها سيجعلها غير موثوقة أكثر بين عامة الناس ، وسيكون تركيز هذا التقرير على تقديم توصيات للتغلب على هذه الثغرات.



5 توصيات:


تمت مناقشة المشكلات المختلفة المتعلقة بالسيارات ذاتية القيادة وتأثيراتها أعلاه في هذا التقرير ، وقبل ذلك سيحاول التقرير تقديم توصيات لحل بعض هذه المشكلات على الأقل ، وبعض الحلول التي يمكن أن تقلل من الآثار السلبية هي:


المكون البشري:


يمكن أن يكون ضمان قدرة التحكم البشري دائمًا على إبطال قرارات الماكينة إحدى الطرق لزيادة المكون البشري ، ولكن في النهاية ، فإن وجود هدف لتطوير مركبة مستقلة من المستوى 5 يعني عدم وجود تدخل بشري وهذه الفكرة ستؤدي إلى انهيار المفهوم الكامل للمركبات من المستوى الخامس وبالتالي ، ربما البدء في الحصول على مكونات بشرية ربما من خلال وجود تنبيه لتحذير الإنسان داخل السيارة قبل اتخاذ قرار حاسم للتأكد من أن الإنسان على دراية بالقرار وكذلك إعطاء القرارات البشرية أولوية أكبر لضمان قدرتها على تجاوز قرار الماكينة. زيادة الثقة البشرية ثم إزالة هذا المكون ببطء مع تطور الثقة من شأنه أن يساعد في زيادة مستوى الثقة في السيارات ذاتية القيادة بين الناس ، وهذا من شأنه أن يساعد السيارة في معرفة المزيد عن المواقف المختلفة التي يختلف فيها القرار المتوقع عن القرار البشري ويمكنها تحديث قدرتها على اتخاذ القرار خلال الفترة.


المعايير:


إما أن تكون جميع النماذج مصنوعة وفقًا لمعيار موحد متفق عليه يمكن تطبيقه في جميع أنحاء العالم أو يجب أن تكون النماذج خاصة بالبلد أو المدينة مع تقييد استخدامها في البلدان الأخرى لتجنب أي حادث مؤسف. إذا تم دمج المكونات المذكورة أعلاه بنجاح ، فإن مستوى الثقة يزداد تِلْقَائِيًّا للإنسان حيث يتم معالجة المزيد من المخاوف والاعتناء بها.



أخلاق:


نموذج مع عنصر أخلاقي مدرج فيه ، يمكن تحقيق ذلك ليس فقط من خلال الاعتماد على المواقف المتوقعة أو المواقف الحالية بالفعل ولكن أيضًا من خلال تضمين المواقف الأخلاقية اليومية التي قد يتعين على السيارة مواجهتها. كيف يمكن دمج هذه ستكون العقبة التالية لتحليلها.



من خلال أخذ مراحل إعداد البيانات وتوليد النموذج ، سيكون أحد الحلول الممكنة هو محاكاة الواقع الافتراضي للمواقف الأخلاقية المحتملة ووجود المشاركين في إطار هذه المحاكاة وجعلهم يقررون ما سيفعلونه في ظل هذا الموقف. مثل وجود عقبات مختلفة مثل الإنسان والحيوان والأشياء والسماح للشخص بتقرير أي منها سيصطدم في حالة حرجة. قد يؤدي هذا إلى ظهور العديد من الفئات ويمكن إجراء الملاحظات بناءً على هذه الفئات التي من شأنها أن تساعد في فهم السبب وراء الحكم ويمكن ترميز هذه الأسباب في الجهاز كقواعد لمعالجة نفس المواقف أو أي مواقف مماثلة. سيحاول هذا تضمين الأخلاق ويعالج بعض القضايا الأخلاقية التي قد تطرأ.



على سبيل المثال ، إذا كان الموقف قيد النظر من أجل المحاكاة يتعلق بضرب طفل يقفز في المسار أو يضرب مربعًا على المسار الصحيح ، فإن الحلول وجميع الفئات تعتبر مجموعة بياناتنا إذا كانت خوارزمية التجميع مثل K-mean (الخوارزمية) إذا تم تطبيقها على ذلك ، فسيتم تقسيم مجموعة البيانات إلى فئات مثل العمر والجنس والقرار وخوارزمية التصنيف مثل الشبكات العصبية العميقة أو آلات متجهات دعم SVM (الخوارزمية) التي يتم تطبيقها بعد ذلك من شأنه أن يمنحنا قواعد التصنيف التي ترتبط بالشخص الانتماء إلى الجنس أو العمر الذي سيختار الحل ويمكن برمجته كقواعد استثناء للسيارة ذاتية القيادة التي سيكون لها في النهاية عنصر أخلاقي مدرج في قرارها وبالتالي تجنب ضرب الطفل وضرب الصندوق وبالتالي تجنب الحوادث.

الشكل 2 نموذج مقترح لتضمين الأخلاقيات



الشكل 3 نموذج مقترح لتضمين الأخلاقيات



6- النتائج:


يحاول التقرير الإجابة على الأسئلة المتعلقة بالقدرة القضائية للسيارة ذاتية القيادة وما إذا كان يمكن أن تحل محل الإنسان في إصدار الأحكام الأخلاقية والظرفية. ويلاحظ أنه في معظم الباحثين استنتجوا أن القضايا الرئيسية للسيارات ذاتية القيادة هي غموضها في إصدار الحكم الصحيح ، وافتقارها إلى الأخلاق في الأحكام ، وعدم القدرة على تتبع أي تغييرات مفاجئة في المواقف المثالية هذا. يؤدي بالفعل إلى انعدام الثقة بين الجمهور.



حاول هذا التقرير معالجة هذه المشكلات وقدم بعض التوصيات في دمج الأخلاق كمكون رئيسي في صنع القرار والتي يمكن القيام بها من خلال دراسة القرارات البشرية باستخدام طريقة بسيطة لتحليل مواقف الواقع الافتراضي لتعميم الفئات. حدد التقرير أيضًا العيوب المختلفة الموجودة في عمليات صنع القرار للسيارة ذاتية القيادة ، وتحيزها وفشلها في ظل ظروف ديناميكية أدت إلى عدم ثقة الجمهور بالتكنولوجيا. كما تم تحديد الثغرات المختلفة في الأدبيات وذكرها على أنها تركيز التصميم والأخلاق والقدرة على إصدار الأحكام في المواقف الحرجة. تم فحص الهيكل النموذجي وعملية صنع القرار بالتفصيل للمساعدة في إثبات التوصيات للقضايا الواردة في هذا التقرير. لا تهدف هذه الحلول إلى أن تكون مثالية ولكنها تهدف إلى تقليل الآثار السلبية للسيارات ذاتية القيادة لزيادة مستوى الثقة لأنها جزء رئيسي من النقل المستقبلي ، ولكن التفكير في مركبة مستقلة كاملة المستوى 5 دون أي تدخل بشري سيظل أمرًا غامضًا في المستقبل القريب ، ستكون هناك حاجة إلى شكل من أشكال التفاعلات البشرية في كل مكان إذا كانت هناك حاجة إلى الوثوق بها وتطبيقها في جميع أنحاء العالم.


7. الخاتمة والنظرة المستقبلية:

 

يتناول التقرير المشكلات المذكورة سابقًا ويركز بشكل أساسي على القدرة إصدار الأحكام لهذه السيارات ذاتية القيادة ويحاول تطوير طريقة لدمج الأخلاقيات في السيارات ذاتية القيادة وجعلها جزءًا لا يتجزأ من عملية صنع القرار. ويهدف إلى الإجابة على السؤال البحثي لتحديد ما إذا كانت السيارات ذاتية القيادة تتمتع بقدرة جيدة على إصدار الأحكام وتوفير طرق لدمج الأخلاقيات في عملية اتخاذ القرار. يتضح من التقرير أن السيارات ذاتية القيادة بها العديد من العيوب في عمليتها وقد فشلت فشلاً ذريعاً في كثير من الحالات ولكنها لا تزال تقنية واعدة ، حتى لو كان من الصعب تخيل المركبات ذات المستوى الخامس على أنها تحتوي على عنصر بشري مألوف المواقف وتفهم العواقب لا يزال خيارًا أفضل ولكن لا يزال بإمكان السيارة التي تحتوي على مكونات أخلاقية مدمجة أن تكسب المزيد من الثقة بين الناس وتتجنب العديد من الأخطاء.



وبالتالي ، من الضروري جِدًّا فهم كيفية اختلاف الآلة عن الحكم البشري ومعرفة مسؤوليتها ، مما يجعل من الضروري معالجة جميع مشاكلها لمعرفة ما إذا كان يمكن تغييرها أو تحملها حتى تستمر التكنولوجيا. ستكون النظرة المستقبلية هي دمج هذه التوصيات في مرحلة البرامج الخاصة بهم لاختبار النتائج وتحديد دقة هذه الطريقة وأيضًا تحديد مقدار الدقة التي ستضيفها بدورها إلى السيارة المستقلة وبالتالي تحديد مقدار الانخفاض في الحوادث.

بقلم الكاتب


ما رأيك بما قرأت؟
اذا أعجبك المقال اضغط زر متابعة للكاتب و شاركه مع الأصدقاء على مواقع التواصل الاجتماعي حتى يتسنى للكاتب نشر المزيد من المقالات الجديدة و المفيدة و الإيجابية..

تعليقات

يجب عليك تسجيل الدخول أولاً لإضافة تعليق.
تسجيل دخول إنشاء حساب جديد

هل تحب القراءة؟ كن على اطلاع دائم بآخر الأخبار من خلال الانضمام مجاناً إلى نشرة جوَّك الإلكترونية

نبذة عن الكاتب