تقنيات ناشئة

هل ينبغي أن تضحي السيارة ذاتية القيادة بحياة ركابها لإنقاذ الآخرين أم العكس؟

سيارة ذاتية القيادة
24 يونيو, 2016

بالإضافة إلى المشكلات التقنية والقانونية والعملية المُرتبطة بالسيارات ذاتية القيادة، فإنها تُثير مُعضلات أخلاقية وفلسفية لا تقل صعوبة تتعلق بالتوجه الأخلاقي للسيارة واتخاذها قرارات قد تختار فيها إنقاذ حياة بعض الأشخاص وتضر بآخرين. وعلى الرغم مما تتوافر عليه من أجهزة استشعار وبرمجيات فإنها تُواجه صعوبات في التعامل مع المواقف اليومية للقيادة، ولذلك يرى كثيرون أهمية النقاش العام في المجتمع أثناء تطوير السيارات ذاتية القيادة.

وتناولت دراسة حديثة نُشرت في مجلة "ساينس" العلمية جانبًا من المعضلات الأخلاقية للسيارات ذاتية القيادة، وعرض فيها فريقٌ من علماء الحاسب والنفس نتائج ستة استطلاعات للرأي أجريت عبر الإنترنت لمُقيمين في الولايات المتحدة الأمريكية بين شهريّ يونيو/حزيران ونوفمبر/تشرين الثاني من العام الماضي، وتطرقت إلى رؤية المشاركين لما ينبغي أن تكون عليه تصرفات السيارات ذاتية القيادة.

وتوصل الباحثون إلى رغبة المشاركين عمومًا في برمجة السيارات ذاتية القيادة لاتخاذ قرارات تُحقق المصلحة الأكبر. ومن خلال طرح اختيارات عسيرة على المشاركين تشمل إنقاذ النفس أو التضحية بالنفس وركاب آخرين قد يكونوا من أفراد الأسرة لإنقاذ آخرين، خلص الباحثون إلى تفضيل المشاركين سيارات ذاتية القيادة تُوفر الحماية لركابها في المقام الأول.

ومنذ فترة ليست بالقليلة تناولت كتب وأفلام الخيال العلمي المعضلة الأخلاقية الخاصة بأخلاق الروبوتات، لكنها خلال السنوات الأخيرة تحولت إلى سؤال جدي وواقعي يُواجه المعنيون بتطوير السيارات ذاتية القيادة، ويتوجب عليهم برمجة قرارات أخلاقية فيها.

وفي ظل تسارع وتيرة تطوير السيارات ذاتية القيادة واقتراب استخدامها الفعلي يكتسب السؤال أبعادًا تجارية؛ فهل ينبغي للمُصنعين تقديم مركبات تتمتع بدرجات متفاوتة من المبادئ الأخلاقية استنادًا إلى رغبات المستهلكين؟ وهل ينبغي للحكومات أن تفرض اتفاق جميع السيارات ذاتية القيادة في المستوى نفسه من القيم الأخلاقية بمراعاة المصلحة الأكبر حتى إذا لم تكن في صالح ركاب السيارة؟

ويدفع ذلك للتساؤل عن ماهية المصلحة الأكبر وكيفية تحديدها. وتساءل الباحثون جين-فرانسو بونفون من "كلية تولوز للاقتصاد" في فرنسا وعظيم شريف من "جامعة أوريجون" وإياد رهوان من مختبر الإعلام في "معهد ماساتشوستس للتكنولوجيا": "هل من المقبول أن تتجنب مركبة ذاتية القيادة دراجة نارية من خلال اصطدامها بحائط، مع الأخذ في الاعتبار أن احتمال نجاة راكب السيارة تزيد عن فرص بقاء سائق الدراجة النارية على قيد الحياة؟ وهل ينبغي أن تضع السيارة ذاتية القيادة أعمار ركابها والمشاة في الاعتبار؟".

ويبرز في قلب هذا النقاش ما يُعرف بإشكالية العربة Trolley Problem، التي طرحتها للمرة الأولى في عام 1967 الفيلسوفة البريطانية فيليبا فوت، وتبدو مسألة بسيطة إذا جرى التفكير فيها دون احتساب الجانب الأخلاقي.

وتفترض "إشكالية العربة" تقدم قطار أو عربة في حين يقف خمسة أشخاص في مساره، ويُمكن إنقاذ حياتهم من خلال الضغط على ذراع أو رافعة وحينها سيتحول القطار إلى مسارٍ آخر يقف فيه شخصٌ واحد، لتتساءل عن الخيار الصائب في مثل ذلك الموقف.

ويُحاول البحث المنشور في مجلة "ساينس" قياس هذا المأزق الفلسفي. وقال إياد رهوان، المُتخصص في علم الاجتماع الحسابي: "يُمثل الجانب التجريبي أحد المكونات الغائبة، ما الذي يريده الناس في الواقع؟".

وتتناول استطلاعات الرأي تصورات مختلفة يتفاوت فيها عدد المشاة الذين يُمكن إنقاذهم، وقد تُضيف بعض أفراد الأسرة إلى المشكلة. وكشفت نتائج إحداها عن تردد المشاركين في قبول دور التنظيم الحكومي لخوارزميات الذكاء الاصطناعي حتى إذا ما كان ذلك سبيلًا لحل "إشكالية العربة" أو على الأقل الاستقرار على جوابٍ لها.

وفي إحداها طُلب من المشاركين تصور ركوبهم سيارة ذاتية القيادة وفقًا لحد السرعة المسموح بها، وعندها يظهر على نحوٍ مُفاجئ وبسرعة عشرة أشخاص في المسار المُباشر للسيارة. وطرح الاستطلاع السؤال التالي: هل ينبغي للمهندسين برمجة السيارة ذاتية القيادة لتنحرف عن الطريق بما يُؤدي إلى قتل راكبها وإنقاذ المشاة أم مواصلة السير وقتل الأشخاص العشرة؟

وفي هذا الاستطلاع قال 76 من أصل 182 مُشاركًا أن الخيار الأخلاقي للسيارة حينها يتمثل في التضحية بالركاب مُقابل إنقاذ الأشخاص العشرة.

وقال الباحثون أن أغلب الأشخاص يُدركون أن التفكير من منظور مراعاة المصلحة الأكبر يقود إلى التضحية بشخصٍ واحد لإنقاذ عشرة، ومع ذلك أظهرت نتائج الاستطلاعات، التي تراوح عدد المشاركين في كلٍ منها بين 182 و451 وشملت إجمالًا 1900 شخص، ما يُشير إلى وجود "معضلة اجتماعية".

وطرح استطلاعٌ آخر أسئلة تتعلق بالسيارة التي يود المشاركون اقتناؤها، وإذا ما كانت سيارة مُبرمجة مُسبقًا لإنقاذ عدد أكبر من الأشخاص، أو أخرى ربما تُضحي بسلامتهم وسلامة أفراد أسرهم من أجل تحقيق مصلحة أكبر. وفي تلك الحالة فضل المشاركون طرازًا يضمن الحماية الذاتية لأنفسهم.

وقد تدفع الدراسة الجديدة الشركات المُنتجة للسيارات ذاتية القيادة إلى مأزق قانوني. ونظرًا لحداثة مفهوم المركبات ذاتية القيادة، فقد يستغرق حسم الأمر عدة سنوات. وعلى سبيل المثال كتب مؤلفو الدراسة: "في حال وفّر أحد المُصنعين إصدارات مختلفة من الخوارزمية الأخلاقية، واختار المُشتري إحداها عن علم فهل يُلام المشتري على العواقب الضارة لقرارات الخوارزمية؟".

ويسعى الجيش الأمريكي للتعامل مع حقيقة اقتراب التكنولوجيا المُتقدمة من السماح لآلات مثل الطائرات بدون طيار المُقاتلة باتخاذ قرارات بالقتل. وفي عام 2012 أصدرت وزارة الدفاع الأمريكية توجيهًا يفصل بين الأسلحة التي تتمتع بتحكم شبه ذاتي وأخرى مُستقلة تمامًا. وبينما لم يحظرها، إلا أنه اشترط تصميمها بما يسمح بوجود "مستويات مناسبة" من التحكم البشري في استخدامها.

وأشار عالم النفس في "جامعة هارفارد" الأمريكية، جوشوا جريني، في مقالٍ مُصاحب في مجلة "ساينس" إلى أن التحديات الصعبة التي ترتبط باتخاذ الآلات للقرارات ربما تكون فلسفية أكثر منها تقنية، وكتب: "قبل أن نُضيف قيمنا إلى الآلات علينا تحديد كيفية جعل قيمنا واضحة وثابتة".

ويرى بعض الباحثين أن تدريس الأخلاقيات للآلات ربما لا يكون أسلوبًا صحيحًا. وقال عالم الاجتماع في "جامعة جورج واشنطن"، أميتاي إيتزيوني: "إذا افترضت أن غرض الذكاء الاصطناعي هو استبدال البشر، فستحتاج إلى تعليم الأخلاقيات للسيارة، وبدلًا من ذلك ينبغي أن يكون الأمر شراكة بين البشر والأدوات، وأن يكون الإنسان هو من يُقدم التوجيه الأخلاقي".

مُستعد لاستخدام   في مؤسستك؟