قبل نهاية فترة الرئيس ترامب، وفي أوج تبادل الاتهامات بين الولايات المتحدة والصين بخصوص مرض «كوفيد-19″، لاحت بوادر حرب جديدة بين الدولتين، وهي حرب الذكاء الاصطناعي، وبرز العديد من الأسئلة مثل: هل هذه التكنولوجيا جاهزة للعمل بأمان؟ وهل يمكن خداع الذكاء الاصطناعي العسكري بسهولة؟
خداع الخوارزميات
على الرغم من أن تقنيات الذكاء الاصطناعي العسكري تهيمن على الإستراتيجية العسكرية في الولايات المتحدة والصين؛ لكن ما أشعل الأزمة أنه في مارس الماضي، شنّ باحثون صينيون هجوما بارعا، وربما مدمّرا، ضد أحد أكثر الأصول التكنولوجية قيمة في أميركا، وهي سيارة تسلا الكهربائية.
وكان فريق بحثي من مختبر الأمان لشركة التكنولوجيا الصينية العملاقة «تينسنت» (Tencent)، قد نجح في التوصّل إلى عدة طرق لخداع خوارزميات الذكاء الاصطناعي في سيارة تسلا الكهربائية من خلال التغيير الدقيق للبيانات، التي يتم تغذيتها لأجهزة استشعار السيارة، وتمكّن الفريق من خداع الذكاء الاصطناعي الذي يدير السيارة وإرباكه.
خدع الفريق خوارزميات تسلا الرائعة القادرة على اكتشاف قطرات المطر على الزجاج الأمامي أو اتباع الخطوط على الطريق، وقام بتشغيل مساحات الزجاج الأمامي لتعمل كأن هناك مطرا، وتم تعديل علامات الحارات على الطريق لإرباك نظام القيادة الذاتية بحيث يمر في حارة المرور المواجهة بشكل مخالف لقواعد المرور.
وبعد نجاح التجربة الصينية، أكد الفريق أنّه من السهل خداع خوارزميات «التعلم العميق»، التي تكتسح مجالات مختلفة لتطبيقات مثل التعرف على الوجوه وتشخيص السرطان، إذا تم اكتشاف نقاط ضعفها.
حماية الأمن القومي
تخصّص ميزانية وزارة الدفاع الأميركية المقترحة لعام 2020، والتي تبلغ 718 مليار دولار، 927 مليون دولار للذكاء الاصطناعي والتعلم الآلي. تشمل المشاريع الحالية اختبار ما إذا كان يمكن للذكاء الاصطناعي التنبؤ عندما تحتاج الدبابات والشاحنات إلى الصيانة، بالإضافة إلى أشياء في طليعة تكنولوجيا الأسلحة.
وفي وقت مبكر من هذا العام، أعلنت الولايات المتحدة عن إستراتيجية كبرى لتسخير الذكاء الاصطناعي في العديد من مجالات الجيش، بما في ذلك التحليل الإستخباراتي، واتخاذ القرار، واستقلالية المركبات، والخدمات اللوجستية، والأسلحة.
قد لا يبدو خداع سيارة تسلا الكهربائية بمثابة تهديد إستراتيجي خطير للولايات المتحدة؛ لكن ماذا لو تم استخدام تقنيات مماثلة لخداع الطائرات بدون طيار، أو البرامج التي تحلل صور الأقمار الصناعية، في رؤية الأشياء غير الموجودة أو عدم رؤية الأشياء الموجودة؟
يعود سبب دفع البنتاغون للذكاء الاصطناعي جزئيا إلى الخوف من الطريقة التي قد يستخدم بها المنافسون التكنولوجيا.
في العام الماضي أرسل جيم ماتيس، وزير الدفاع آنذاك، مذكرة إلى الرئيس دونالد ترامب يحذر فيها من أن الولايات المتحدة متأخرة بالفعل فيما يتعلق بالذكاء الاصطناعي.
وفي جويلية 2017، صاغت الصين إستراتيجيتها للذكاء الاصطناعي، معلنة أن «الدول المتقدمة الرئيسية في العالم تتخذ تطوير الذكاء الاصطناعي كإستراتيجية رئيسية لتعزيز التنافسية الوطنية وحماية الأمن القومي».
وبعد بضعة أشهر، أعلن فلاديمير بوتين من روسيا بشكل ينذر بالسوء «من يصبح قائدا في مجال (الذكاء الاصطناعي) سيصبح حاكم العالم».
إن الطموح لبناء أذكى الأسلحة وأكثرها فتكا أمر مفهوم؛ ولكن كما يظهر في حالة اختراق سيارة تسلا الكهربائية، فإن العدو الذي يعرف كيف تعمل خوارزمية الذكاء الاصطناعي يمكن أن يجعلها عديمة الفائدة أو حتى يحركها لتعمل ضد أصحابها.
شبكات التعلم العميق
وسط تراكم الاستخدامات العسكرية للذكاء الاصطناعي، حظيت نقاط الضعف هذه على الكثير من الاهتمام، وأثارت العديد من المخاوف، فعلى سبيل المثال، يمكن أن يتسبب الحد الأدنى من التغييرات في صورة الإدخال في قيام الشبكة بإساءة تصنيفها، مما يجعلها تبدو متشابهة لشخص ما؛ ولكنها مختلفة تماما عن خوارزمية الذكاء الاصطناعي.
ويمكن أن يكمن الحل الدفاعي ضد البيانات العدائية في استخدام شبكات التعلم العميق، ويمكن للشبكات العصبية متعددة الطبقات التعرف على الأشياء بمهارة غير مسبوقة، ويتضمن تدريب الشبكة العصبية التغذية بالبيانات لمعالجة الأنواع المختلفة من الصور وبيانات أجهزة الاستشعار الضرورية للعمليات العسكرية.
وقد بدأ البنتاغون ينتبه، وفي أوت من هذا العام، أعلنت وكالة مشاريع الأبحاث الدفاعية المتقدمة «داربا» (DARPA) عن العديد من مشاريع أبحاث الذكاء الاصطناعي الكبيرة منها برنامج يركز على التعلم الآلي العدائي.
إن ردة الفعل العنيفة ضد الاستخدام العسكري للذكاء الاصطناعي أمر مفهوم؛ لكنه قد يخطئ الصورة الأكبر. حتى مع قلق الناس بشأن الروبوتات القاتلة الذكية، ربما يكون الخطر الأكبر على المدى القريب هو ضباب خوارزمي للحرب، ممثلا في الذكاء الاصطناعي العسكري العدائي، وهو ضباب لا تستطيع حتى أذكى الآلات أن تدرسه.
الجزيرة + مواقع إلكترونية