تقوم قوات الشرطة والأمن في جميع أنحاء العالم باختبار أنظمة التعرف على الوجوه الآلية من أجل استخدامها كأداة لتحديد المجرمين والإرهابيين. ولكن ما مدى دقة هذه التكنولوجيا وإلى أي مدى تصبح الذكاء الاصطناعي والذكاء الاصطناعي ، الذي تقوم عليه ، أدوات للاضطهاد والقمع؟
ميزات النظام
تخيل أنه يتم إرسال إرهابي مشتبه به في مهمة انتحارية إلى وسط مدينة مكتظ بالسكان. إذا ألقى قنبلة ، فقد يموت مئات الأشخاص أو يصابون بجروح خطيرة. يتيح لك إجراء مسح الوجوه في الحشد باستخدام المراقبة بالفيديو التعرف على المهاجم ومقارنة خصائصه تلقائيًا بالصور الموجودة في قاعدة بيانات للإرهابيين المشهورين أو "الأشخاص ذوي الاهتمام" بخدمات الأمن.
في حالة المصادفة ، يبعث النظام ناقوس الخطر ، ويتم إرسال قوات مكافحة الإرهاب من رد الفعل السريع إلى المكان الذي "تحيد" المشتبه فيه قبل أن يتمكن من تفعيل المتفجرات. مئات الأرواح أنقذت بفضل التكنولوجيا الحديثة.
المشاكل المحتملة في العمل
ولكن ماذا لو لم تعمل تقنية التعرف على الوجوه (بالفرنسية) بشكل صحيح؟ واتضح أن هذا ليس إرهابيًا ، بل كان شخصًا عاديًا لم يحالفه الحظ واتضح أنه مهاجم. كان يمكن ببساطة تدمير حياة بريئة لأن الخبراء آمنوا أيضًا بنظام خاطئ. لكن ماذا لو تحولت إلى هذا الشخص؟
هذه مجرد واحدة من المعضلات الأخلاقية التي تواجه نظام التعرف على الوجوه والذكاء الاصطناعي. من الصعب حقًا تدريب الآلات على "رؤية" الأشياء والوجوه وتمييزها وتمييزها. باستخدام رؤية الكمبيوتر ، كما يطلق عليها في بعض الأحيان ، منذ وقت ليس ببعيد ، حاول الباحثون تحديد الفرق بين الكعك مع الزبيب وشيهواهوا ، والتي أصبحت نوعًا من اختبار عبث لتحديد مدى فعالية هذه التكنولوجيا.
مواجهة صعوبات التعرف
أظهر تقنيو الكمبيوتر ، Joy Buolamvini ، الذين يمثلون المختبر في معهد ماساتشوستس للتكنولوجيا (وفي الوقت نفسه مؤسس رابطة العدالة الخوارزمية) ، وتيمنيت جبرو ، المدير الفني المشارك لفريق Google المعني بالمسائل الأخلاقية المتعلقة بالذكاء الاصطناعي ، صعوبة نظام التعرف على الوجه يميز بين الرجل والمرأة إذا كانت بشرتهم داكنة بما فيه الكفاية. غالبًا ما يخطئ النظام في النساء ذوي البشرة الداكنة للرجال.
قال الدكتور جبرو في مايو / أيار في منظمة العفو الدولية من أجل القمة الجيدة في جنيف: "هناك حوالي 130 مليون أمريكي بالغ موجودون بالفعل في قواعد بيانات التعرف على الوجوه". "لكن مجموعات البيانات الأصلية تحتوي في الغالب على ممثلين للجنس الأبيض ، من بينهم رجال كثيرون". لذلك ، عند التعرف على الأشخاص ذوي البشرة الداكنة ، لا تزال هناك نسبة كبيرة من الأخطاء بسبب نوع البشرة والجنس.
استخدام التكنولوجيا
حظرت مدينة سان فرانسيسكو في كاليفورنيا مؤخراً استخدام أجهزة التعرف على الوجوه والتعرف على الوجوه تقديراً للعيوب والتهديدات للحريات المدنية. لكن مدن أخرى في الولايات المتحدة ودول أخرى في العالم تواصل تجربة هذه التكنولوجيا.
في المملكة المتحدة ، على سبيل المثال ، تقوم قوات الشرطة في جنوب ويلز ولندن ومانشستر وليستر باختبار هذه التقنية ، التي تخيف منظمات الحريات المدنية مثل Liberty و Big Brother Watch ، التي تشعر بالقلق إزاء عدد المطابقات الخاطئة التي تحدث عندما يعمل النظام.
الأخطاء والخوف
في الممارسة العملية ، هذا يعني أن الأبرياء يُطلق عليهم خطأً اسم المجرمين المحتملين. وفقًا للدكتور جبرو ، فإن مثل هذه المشكلات يجب أن تثير قلق الجميع بالتأكيد ، واستخدام مثل هذه التدابير الوقائية والتنبؤية ينطوي على معدلات عالية.
بالنظر إلى أن الأميركيين السود يشكلون 37.5 ٪ من جميع نزلاء السجون في الولايات المتحدة (وفقًا لمكتب السجون الفيدرالي) ، على الرغم من أنهم يشكلون فقط 13 ٪ من سكان الولايات المتحدة ، فإن الخوارزميات المكتوبة بشكل سيء باستخدام مجموعات البيانات المتاحة حاليًا يمكن التنبؤ بها أن السود هم أكثر عرضة لارتكاب جريمة. لست بحاجة إلى أن تكون عبقريًا لفهم ما يمكن أن يعنيه هذا بالنسبة للسياسات الاجتماعية والشرطية.
في الآونة الأخيرة ، توصل علماء من جامعة إسكس إلى استنتاج مفاده أن المصادفات المستخدمة في المحاكمات في شرطة لندن كانت خاطئة بنسبة 80 ٪ ، مما قد يؤدي إلى انتهاكات خطيرة للعدالة وانتهاك حق المواطنين في الخصوصية.
بدأ أحد البريطانيين ، إد بريدجز ، دعوى قضائية بشأن استخدام تقنية التعرف على الوجوه من قبل شرطة جنوب ويلز بعد ذلك تم التقاط صورته أثناء التسوق ، وأعربت المفوضة البريطانية للإعلام إليزابيث دنهام عن قلقها إزاء عدم وجود إطار قانوني يحكم استخدام تقنية التعرف.
لكن هذه المخاوف لم تمنع عملاق التكنولوجيا الأمازون من بيع أداة Rekognition FR لقوات الشرطة الأمريكية ، على الرغم من أعمال شغب مترددة من قبل المساهمين لا تزال تؤدي إلى أي شيء.
آفاق
تقول أمازون إنها غير مسؤولة عن كيفية استخدام العملاء لتكنولوجيتها. لكن قارن هذه العلاقة مع Salesforce ، وهي تقنية لإدارة علاقات العملاء ، والتي طورت أداة التعرف على الصور الخاصة بها والتي تسمى أينشتاين فيجن.
وقال بي بي سي Salesforce ، وهو خبير أخلاقيات الذكاء الاصطناعي في بي بي سي: "قد تكون تقنية التعرف على الوجوه مناسبة في السجن لتعقب السجناء أو منع عنف العصابات". ولكن عندما أرادت الشرطة استخدامه مع الكاميرات عند اعتقال الأشخاص ، وجدت الشركة أن هذا غير مناسب. في هذه الحالة ، ينبغي للمرء أن يسأل عما إذا كان من الضروري استخدام الذكاء الاصطناعي بشكل عام في بعض السيناريوهات ، وأحد الأمثلة هو التعرف على الوجوه.
حاليًا ، يستخدم الجيش هذه التكنولوجيا أيضًا ، حيث يزعم مقدمو التكنولوجيا أن برامجهم لا يمكنها فقط تحديد الأعداء المحتملين ، بل أيضًا التعرف على السلوك المشبوه.