يمكن أن يشكّل الاعتماد على الآلات وأنظمة دعم القرار مشاكل أخلاقية كبيرة. وقد يكون للبرامج منطق “بارد”، لكنّها ليست خالية من التحيّز.. “يجب على جميع النسويات أن يحترقن في الجحيم” هتف “تاي”، روبوت دردشة مايكروسوفت في مارس 2016، في يومه الأول من الانغماس في تويتر وسناب شات، وتعلّم في التعلّم العميق كيفية التحدّث..
مدفوعًا بمستخدمي الإنترنت الذين استمتعوا بجعلها تسوء، انتهى الأمر بموقع تويتر للذكاء الاصطناعي (AI) إلى إنكار وجود الفكر. عرض مثير للشفقة للتعلّم الآلي، تم إغلاق تاي من قبل مصمّميها بعد بضع ساعات. ولكن ماذا لو فوّضنا قرارات مهمة للذّكاء الاصطناعي والخوارزميات الأخرى؟
دعم القرار
في الواقع، يمكن للبنوك وشركات التأمين وإدارات الموارد البشرية بالفعل اختبار أنظمة دعم القرار الفعّالة لإدارة الأصول وحساب الأقساط واختيار السير الذاتية.. تجوب السيارات ذاتية القيادة طرق كاليفورنيا لسنوات. في حين أنّ خوارزمية القبول بعد البكالوريا (التي أدّت إلى جذب بعض خريجي فصل 2017 للحصول على مكان في الكلية) لم تنته من طحن رغبات الطلبة.. يقول سيرج أبيتبول، الباحث في قسم علوم الكمبيوتر في مدرسة نورمال العليا: “ بالنسبة لفيلم أو جوارب، لا أمانع في تلقي المشورة من أنظمة دعم القرار، لكنّني أجد أنّه من المحرج أكثر أن توجّه قراءاتي إلى مواقع المعلومات التي يمكن أن تشترط آرائي، أو حتى تكون تآمرية “.
ويضيف: “عندما نعتمد على الخوارزميات والذكاء الاصطناعي (خوارزمية متطوّرة تحاكي الذّكاء) لاتخاذ قرارات لها عواقب وخيمة في حياة البشر، فمن الواضح أنّها تطرح مشاكل أخلاقية”.
وفي هذا الصدد، يعدّ الإفراج المشروط عن المعتقلين الأمريكيين مثالاً مذهلاً. يقول سيرج أبيتبول: “ لقد ثبت أنّ احتمال إطلاق سراحك أعلى بكثير إذا مثلت أمام القاضي بعد الغداء وليس قبل ذلك مباشرة “. تم اختبار الخوارزميات، الخالية من “ متلازمة” المعدة الفارغة، بالتوازي”.. إنّ مقارنة الأداء أمر سهل؛ لأنّه في الولايات المتحدة، يعتمد الإفراج المشروط على معيار واحد فقط : خطر فرار الشخص أو عودته إلى الإجرام. نتيجة المباراة : “من الناحية الإحصائية، تفوز الخوارزمية وتسمح في هذه الحالة بالعدالة العمياء مع مراعاة الحقائق الموضوعية فقط “، يعلّق الباحث. ولكن ما المسافة التي يجب قطعها؟ إذا مكّنت الأنظمة المتطوّرة من الحكم على قضايا أخرى، فهل ستقبل قرار الآلة؟
هذه ليست مشكلة فلسفية محضة. من خلال تفويض قراراتنا إلى الخوارزميات والذّكاء الاصطناعي، لا نفقد كرامتنا الإنسانية فقط.. هذه الأنظمة لها عيوبها أيضًا. “التعلّم العميق، وهو تقنية من بين تقنيات أخرى في الذّكاء الاصطناعي، هو الذي يأتي بالتطبيقات الأكثر إثارة وله عيب كبير: نحن لا نعرف كيف نفسّر النتائج.
يقول سيباستيان كونييتشني، الباحث في مركز أبحاث علوم الكمبيوتر في لانس: “هذه شبكات عصبية تعمل مثل الصناديق السوداء”. مع هذا النوع من الذّكاء الاصطناعي، لا نتعرف على القطة لأنّها “لها أذنان وأربعة أرجل وما إلى ذلك” (المنطق البشري يتكون من قواعد وتمليها الآلة)، ولكن لأنّها تبدو وكأنّها حشد من القطط الأخرى التي سيتم تقديم صورها إلى الآلة “لتدريبها”. أما فيما يتعلق بماهية التشابهات التي تجعل الميل لهذا، الغموض وكرة العلكة، ومع ذلك، سيكون من الجيد شرح الأسباب الكامنة وراء الخيارات المهمة، حتى نتمكن من تبريرها. وبالتالي ضمان معاملة عادلة للجميع “.
هل يمكن جعل هذه الأنظمة أكثر شفافية؟ هناك بحث حول” قابلية تفسير “هذه الصناديق السوداء، بتمويل خاص من DARPA “، يجيب الباحث.
يلاحظ سيباستيان كونييتشني: “الشبكات العصبية هي مجرد حسابات رقمية: لا أرى كيف يمكننا استخراج المفاهيم منها”. ومع ذلك، لن يقبل أحد أن يُرفض منحه قرضًا أو منصبًا مثيرًا للاهتمام بسبب اتصال بالشبكة العصبية للأسف..
الآلات “الملوّثة” بتحيّزاتنا
أسوأ من ذلك: قد يكون لدى الآلات منطق بارد، لكنّها لا تفلت من التحيّز. عندما يتعلّق الأمر بالتعلّم، فإنّ “تاي المراجع” ليس الطالب السيئ الوحيد. في أفريل 2017، كشفت مجلة esScience عن الصور النمطية الكارثية العنصرية والجنسية لـGloVe، وهو ذكاء اصطناعي “ غذّى” 840 مليار مثال مأخوذ من الويب بأربعين لغة مختلفة من أجل إنشاء روابط بين الكلمات. يقول سيباستيان كونييتشني: “ إذا تم تدريب النظام على كتلة من البيانات من الكلام البشري، فليس من المستغرب أن يعيد إنتاج تحيّزاته”.