لماذا لن يحدث منع الروبوتات الذكية القاتلة فارقًا؟
محتوى مترجم | ||
المصدر | ||
التاريخ | ||
الكاتب |
الأسلحة ذاتية التشغيل -الروبوتات القاتلة التي يمكن أن تهاجم دون مشغل بشري- تعد أدوات خطيرة، هذه الحقيقة لا شك فيها. وقع رواد التكنولوجيا، مثل «إيلون موسك» و«مصطفى سليمان» وغيرهم مذكرة عامة للأمم المتحدة مؤخرًا، محذرين من أن الأسلحة ذاتية التشغيل «يمكن أن تكون أسلحة لإثارة الرعب يستغلها الإرهابيون والطغاة ضد السكان الأبرياء، أسلحة (يمكن أن) تُختَرق لتتصرف بطرق غير مرغوب فيها».
لكن هذا لا يعني أن على الأمم المتحدة أن تفرض حظرًا وقائيًا على مواصلة تطوير هذه الأسلحة كما يطالب الموقعون على الرسالة العامة على ما يبدو.
من ناحية، يتطلب الأمر في بعض الأحيان أدوات خطيرة لتحقيق غايات تستحق. فكر في الإبادة الجماعية في «رواندا»، حيث وقف العالم ببساطة دون حراك. لو كانت هناك أسلحة ذاتية التشغيل متاحة عام 1994، لربما لم نكن لنُشح بنظرنا بعيدًا. يبدو منطقيًا أنه إذا كانت تكاليف التدخلات الإنسانية مالية بحتة، فسيكون من الأسهل الحصول على دعم واسع النطاق لمثل هذه التدخلات.
ومن ناحية أخرى، فإنه من السذاجة افتراض أنه بإمكاننا التمتع بفوائد التطورات الحديثة في الذكاء الاصطناعي (AI) دون التعرض كذلك لبعض السلبيات على الأقل. لنفترض أن الأمم المتحدة ستنفذ حظرًا وقائيًا على مواصلة تطوير كل تكنولوجيا الأسلحة ذاتية التشغيل. افترض كذلك -بتفاؤل تام، بالفعل- أن جميع الجيوش حول العالم ستحترم الحظر، وتوقف برامج أبحاثها في الأسلحة ذاتية التشغيل. حتى مع وجود كلا الافتراضين، لا يزال يتعين علينا القلق بشأن الأسلحة ذاتية التشغيل. فالسيارة ذاتية القيادة يمكن إعادة برمجتها بسهولة لتصبح نظام أسلحة ذاتي التشغيل: بدلًا من توجيهها للانحراف عندما ترى أحد المشاة، ما عليك سوى تعليمها الجري فوق المشاة.
لنوضح هذه النقطة بصورة أعم، تعد تقنية الذكاء الاصطناعي مفيدة للغاية، تتخلل حياتنا بطرق لا نلاحظها دائمًا، ولا يمكننا دائمًا فهمها بالكامل. ونظرًا لوجودها المتفشي، فمن قصر النظر الاعتقاد أنه يمكن منع إساءة استخدام التكنولوجيا إذا ما تم وقف تطوير الأسلحة ذاتية التشغيل فقط. في الواقع، قد يتطلب الأمر أنظمة أسلحة ذاتية متطورة ومتميزة والتي تعمل الجيوش في جميع أنحاء العالم على تطويرها حاليًا، إذا أردنا أن نواجه بشكل فعال الأسلحة ذاتية التشغيل الفجة التي يمكن بناؤها بسهولة عن طريق إعادة برمجة أجهزة الذكاء الاصطناعي التي تبدو حميدة التكنولوجيا ظاهريًا مثل السيارة ذاتية القيادة.
علاوة على ذلك، فإن فكرة فرض حظر بسيط على المستوى الدولي، بين الجهات الفاعلة في الدولة، تخون ضمنيًا النظرة الواضحة إلى الأسلحة ذاتية التشغيل، الفشل في الاعتراف بالدور الطويل للتدابير المؤسسية والأفراد الفاعلين من خلال الآلاف من الأفعال، والتي أدت لظهور مثل هذه التكنولوجيا واستمرار عملها. طالما أن النقاش حول الأسلحة ذاتية التشغيل يصاغ بشكل أساسي من حيث السياسات على مستوى الأمم المتحدة، فإن الافتراض بأن المواطن العادي، سواء كان جنديًا أو مبرمجًا يجب مسامحته بافتراض إعفائه من كل المسئولية الأخلاقية عن الضرر غير المشروع الذي تتسبب فيه خطورة الأسلحة ذاتية التشغيل، هو افتراض خاطئ، وربما يؤدي إلى كارثة.
يجب على جميع الأفراد الذين يتعاملون بطريقة أو بأخرى مع تكنولوجيا الأسلحة ذاتية التشغيل أن يتوخوا الحرص اللازم، وعلى كل واحد منا أن يدرس بعناية كيف تساهم أفعاله أو إهماله في المخاطر المحتملة لهذه التكنولوجيا. لا معنى للقول بأنه ليس للدولة والوكالات الحكومية الدولية دور مهم كذلك. بدلًا من ذلك، يجب التأكيد أنه إذا كان من الضروري التخفيف من الأخطار المحتملة لتلك الأسلحة، فمن الواجب تعزيز أخلاقيات المسئولية الشخصية، والتي ينبغي أن تصل إلى كل المستويات وصولًا إلى مستوى صانع القرار الفردي. كبداية، فإن سرد قصة أكثر ثراءً وتعقيدًا حول تطور الأسلحة ذاتية التشغيل له أهمية قصوى – قصة تتضمن المساهمات السببية لصناع القرار على جميع المستويات.
وأخيرًا، يلمح أحيانًا إلى أن الأسلحة ذاتية التشغيل خطرة؛ لا لأنها أدوات خطرة، وإنما لأنها يمكن أن تصبح عملاء ذاتيي التشغيل لهم غايات ومصالح خاصة بهم. هذا القلق إما مضلِّل، وإلا فهو قلق من أن الحظر الوقائي على زيادة تطوير الأسلحة ذاتية التشغيل لن يحد منها. إذا كان الذكاء الفائق يشكل تهديدًا للبشرية، فنحن بحاجة ماسة لإيجاد طرق للتعامل بفعالية مع هذا التهديد، وفعل ذلك بشكل مستقل تمامًا إذا ما كانت تكنولوجيا الأسلحة الذاتية أكثر تطورًا.