أخلاقيات الذكاء الصنعي والروبوتات
محمد الحمامي | Muhammad Alhammami
21/10/2020 القراءات: 1950
يعتبر أفضل مثال على تقريب مفهوم أخلاقيات الخوارزميات هي معالجة التقانات الحديثة للمعضلة الأخلاقية الشهيرة المسماة "مسألة العربة المتحركة": إذا لم يكن باستطاعة سيارة ذاتية القيادة أن تتوقف منعاً لقتل أحد شخصين من المارة، فكيف يجب على برنامج التحكم أن يختار الشخص الذي سيعيش والشخص الذي سيموت.
في الواقع لا تعدّ هذه المعضلة افتراضاً واقعياً ضمن آلية عمل السيارات ذاتية القيادة، لكن يتوجب على أنظمة أخرى موجودة حالياً أو هي قيد التطوير أن تتخذ قرارات في مقايضات أخلاقية واقعية. على سبيل المثال، يجب أن تراعي أدوات التقييم المستخدمة حالياً في منظومة العمل الجنائي المخاطر على المجتمع في مقابل إلحاق أذى بالمتهمين. كما ستحتاج الأسلحة ذاتية التحكم أن تختار تفضيلاً ما بين حياة جنود أو حياة مدنيين.
تكمن المشكلة في أنه لا تُصمّم الخوارزميات مطلقاً للاختيار بين هكذا خيارات صعبة، لأن هدفها الأساسي تحقيق هدف رياضي واحد كزيادة عدد الناجين الجنود ما أمكن أو تقليل عدد الضحايا المدنيين ما أمكن.
أما عندما تبدأ بالتعامل مع أهداف متعددة، وغالباً متناقضة، أو تحاول أن تأخذ بعين الاعتبار مفاهيم غير حسية كالحرية والرفاهية فإنك لن تجد نموذجاً رياضياً مرضياً لحلّ هذه المسألة.
يقول بيتير ايكريسلي وهو مدير أبحاث في شركة Partnership on AI وأصدر مؤخراً ورقة بحثية في هذا السياق: "نحن كبشر نرغب بأشياء متعددة متناقضة" وقال: "توجد العديد من الحالات الحرجة جداً التي سيكون من غير الملائم وربما الخطر أن يتمّ برمجة وظيفة ذات هدف وحيد لتحاول توصيف معاييرك الأخلاقية."
لا تختصّ هذه المعضلات غير القابلة للحل بالخوارزميات فقط. فقد درسها علماء القيم الأخلاقية على مدى عقود وأطلقوا عليها اسم نظريات الاستحالة. لذلك عندما طبق ايكريسلي تلك النظريات على الذكاء الصطناعي، استعار بشكل مباشر فكرة من علوم القيم الأخلاقية لاقتراح حلّ لها: "ماذا لو زودنا خوارزمياتنا بالريبة أو الشك؟".
يقول ايكريسلي: "نحن البشر نتخذ قراراتنا بارتياب وعدم يقين إلى حد كبير في كثير من الأحيان"، ويقول: "إن سلوكنا ككائنات أخلاقية هو مليء بالريبة وعدم اليقين. لكن عندما نأخذ ذلك السلوك المعتمد على الأخلاق ونحاول أن نطبقه في الذكاء الاصطناعي فإنه يتجه ليكون محدداً وأكثر دقة." يقترح ايكريسلي عوضاً عن ذلك أن نصمّم خوارزمياتنا صراحة لأن تستخدم الريبة وعدم اليقين حول الفعل الصحيح الواجب تنفيذه.
يقترح ايكريسلي أسلوبين للتعبير عن هذه الفكرة رياضياً، فيوطِّئ موضحاً أنه يتمّ برمجة الخوارزميات عموماً وفق قواعد واضحة توصّف تفضيلات البشر. إذ يترتب علينا إخبارها، على سبيل المثال، أننا نفضّل الجنود الأصدقاء على المدنيين الأصدقاء، والمدنيين الأصدقاء على الجنود الأعداء حتى لو كنا عملياً غير متأكدين أو لا نعتقد أنه يجب أن يكون الأمر كذلك؛ وبذلك لا يترك تصميم الخوارزمية مساحة كافية من الريبة.
يبدأ الأسلوب الأول (الترتيب الجزئي) بإدخال حيّز صغير من الريبة. يمكن مثلاً برمجة الخوارزمية بحيث تفضل الجنود الأصدقاء على الجنود الأعداء، والمدنيين الأصدقاء على الجنود الأعداء، لكنّك لن تحدد أي تفضيل بين الجنود الأصدقاء والمدنيين الأصدقاء.
في الأسلوب الثاني (الترتيب المُرتاب)، سيكون لديك العديد من القوائم عن التفضيلات الصريحة لكن سيوضع مع كل تفضيل قيمة احتمالية. سنقول أنه في 75% من الحالات قد تفضّل الجنود الأصدقاء على المدنيين الأصدقاء وهؤلاء على الجنود الأعداء. أما في 25% من الحالات سوف تفضّل المدنيين الأصدقاء على الجنود الأصدقاء وهؤلاء على الجنود الأعداء.
يقول ايكريسلي: "يمكن أن تعالج الخوارزمية هذا الارتياب بإنتاج عدة حلول وإعطاء البشر قائمة من الخيارات مع المقايضات المرتبطة بها."
لنفترض أنه تمّ تصميم نظام ذكاء اصطناعي يساعد في اتخاذ القرارات الطبية. فعوضاً عن اقتراح توصية أسلوب معالجة طبية على أخرى، يمكن أن يقدّم هذا النظام ثلاثة توصيات تعتمد على إحدى القواعد التالية: أولاً زيادة عمر المريض، ثانياً تخفيف معاناته، وثالثاً تقليل كلفة العلاج. ويقول ايكريسلي: "اجعل النظام مرتاباً في قراره بشكل صريح وأعد المعضلة الأخلاقية إلى البشر."
جرّبت كارلا غوميز أستاذة علوم الكمبيوتر في جامعة كورنيل تقنيات مشابهة في عملها. تقوم كارلا في أحد مشاريعها بتطوير نظام آلي لتقييم جدوى مشاريع السدود الكهرومائية في حوض نهر الأمازون. تشكل السدود مصدراً للطاقة النظيفة لكنها في نفس الوقت تتسبّب بتغير كبير في مقاطع الأنهر وتخلّ بالأنظمة البيئية المحيطة بها.
تقول كارلا: "إنّ هذا السيناريو مختلف عمّا تواجهه السيارات ذاتية القيادة مما يسمى المعضلات الأخلاقية، لكنه مكان آخر حيث تتواجد هذه المشكلات بشكل واقعي." وتقول: "يوجد هنا هدفان متعارضان، فما الذي يتوجب عليك فعله."
ثم تضيف: "إن المسألة عموماً معقدة جداً"، "سيتطلب الأمر مجموعة من الأبحاث للتصدّي لكافة الجوانب المتعلقة، لكن نهج بيتير يشكّل خطوة مهمة في الاتجاه الصحيح".
لن تحلّ هذه القضية إلا بالاعتماد على الأنظمة المبنية على الخوارزميات. يقول رومان يامبولسكي وهو استاذ مساعد في علوم الكمبيوتر في جامعة لويسفيل: "يتزايد احتياج الأنظمة المعقدة إلى أن يكون الذكاء الاصطناعي مسؤولاً." ويقول: "لا يمكن لأي شخص أن يفهم مدى التعقيد في سوق الأسهم أو في استجابة الأنظمة العسكرية، لذلك ليس لدينا خيار سوى التخلي عن جزء من سيطرتنا إلى الآلات."
أخلاق - الروبوتات - الذكاء الصنعي