أزيموف فعلها قبلهم: مبادئ أخلاقية لذكاء اصطناعي مستقبلي آمن
لا أظن أن هناك متابعا للتطورات التقنية أو مولعا بالسينما، وإلا ووجد نفسه -ولو لوهلة- يتساءل عن شكل المستقبل، الذي يبدو غامضا حتى الآن، مع توالي القفزات التقنية في مجال الذكاء الاصطناعي، والتي تضاعفت معها كذلك المخاوف المنطقية أحيانا قليلة، واللامنطقية في أغلب الوقت، تجاه تطوير تقنيات ذكية تقوم بمهامها الوظيفية الكاملة وتطور نفسها كذلك بدون تحكم مباشر من البشر.
وربما بدا لك ذلك المستقبل الذي لا مفر منه في حقيقة الأمر كابوسيا. وربما رأيته ممتعا. لكن رأي العلماء دائما هو تحري الحذر، أو كما يقول المثل الشعبي العابر لحدود الثقافات : «معظم النار من مستصغر الشرر» أو «اللي يخاف من العفريت يطلع له».
قوانين أزيموف؛ النبوءة الأولى بالمستقبل
لو لم تسمع عن إسحاق أزيموف/عظيموف «Isaac Asimov»، لربما شاهدت يوما الفيلم الشهير I, Robot لويل سميث. وشخصيا أعتبر أزيموف الأب الروحي للجيل الجديد من كتاب الخيال العلمي، غير مؤلفاته العلمية بالطبع. وربما كانت روايته الأساس «Foundation» -التي لم أكمل جميع أجزائها السبع بعد- من أفضل روايات الخيال العلمي على الإطلاق.
كتب أزيموف أول مجموعة قوانين مسجلة للتحكم في الروبوتات الذكية في قصة قصيرة بعنوان الهرب Runaround والتي نشرت بعد ذلك في المجموعة القصصة I, Robot. وتحدد القوانين الثلاث التصرفات الملزمة لأي آلي ذكي أثناء تعامله مع سيده البشري. تنص القوانين على:
- القانون الأول: لا يجوز لآلي إيذاء بشريّ أو السكوت عما قد يسبب أذًى له.
- القانون الثاني: يجب على الآلي إطاعة أوامر البشر إلا في حالة تعارضها مع القانون الأول.
- القانون الثالث: يجب على الآلي المحافظة على بقائه طالما لا يتعارض ذلك مع القانونين الأول والثاني.
وأعتقد أن أزيموف هو أول من حذر من مخاطر محتملة نتيجة تطوير آليات ذكية ذات قوة وقرار مستقل، وساهمت قوانينه في العلم كما في الأدب بعد ذلك.
رؤية وردية، ربما!
في رأيي الشخصي، يجب ألا نقلق من وضع تقنيات الذكاء الاصطناعي -حتى الآن- فأغلب التقنيات المطورة متفوقة في مجال عملها المحدود فقط، حتى وإن كان مجالا شديد التعقيد ويحتاج قدرات حاسوبية جبارة أو تطور ذاتي مستمر تستطيع الآلة تحقيقه من خلال تقنيات التعلم الآلي machine learning، واستغلال الشبكات العصبية -العصبونية- الصناعية، Artificial Neural Networks، والتي تستطيع إنجاز مئات الآلاف من ساعات ومهام التدريب اللازمة -في المعتاد لتعليم إنسان عاقل مهمة معينة- في وقت أقل كثيرا، وبدون ملل.
لكن، لننظر للجانب المشرق من الأمر. نعلم حاليا أن قدرات الآلة جبارة. وأصبح انتصارها على الإنسان في العديد من المجالات خبرا نقرأه بشكل مستمر. نتذكر سويا انتصار جوجل على بطل العالم في لعبة ألفا جو، أحد أكثر ألعاب العالم تعقيدا، أو تطوير جوجل آلة ذكية تقرأ حركة الشفاه تفوقت بها على أفضل الخبراء، أو حتى قدرة مهندسي جوجل أيضا تطوير تقنية ذكاء اصطناعي تستطيع تطوير وبرمجيات آليات ذكاء اصطناعي شبيهة بالتي يطورها البشر، وهو ما يشبه ما أنجزته مؤسسة OpenAI، وهي شركة غير هادفة للربح تهدف لتطوير تقنيات الذكاء الاصطناعي بشكل يخدم البشرية، أسست في 2015 بمشاركة مجموعة من كبار رواد الأعمال وعلماء الذكاء الاصطناعي.
إلا أنك -أو أنا على الأقل- لم أسمع حتى الآن عن حاسوب رفض تنفيذ مهمة ما لأنه مرهق نفسيا، أو يريد بعض الراحة! أو أنه لا يستريح للعمل مع مستخدمه أو مطوره مثلا! وبالتأكيد لم يطلب برنامج ذكي يوما ما الارتباط ببرنامج ذكي آخر. العقل البشري يعمل بطريقة مركبة شديدة التعقيد تختلف تماما عن الآلة حتى في أعقد صورها. ومفاهيم كالوعي والذات والإدراك والفهم والمشاعر والدوافع والأخلاق والضمير والإحساس بالذنب هي مفاهيم بشرية بحتة، اختلف حتى الفلاسفة وعلماء النفس في الوصول لتعريف محدد لها وتفسير أسبابها.
ولا تعمل أي تقنية ذكية هكذا بالتأكيد، والأكيد أنها لا تدرك بذاتها أنها تعمل من الأساس. وتشبيه أي آلة -مهما بلغت قدراتها على آداء مهام محددة- بالعقل البشري خطأ فادح نقع فيه كثيرا. ولمعرفة كيف «قد» تفكر آلة ذكية مستقبلا، أنصحك بقراءة «الذكاء الاصطناعي الشامل لا يزال حلمًا بعيد المنال» و «دعوا الذكاء الاصطناعي يتطور».
هل نحن أذكى/ ذوي رؤية أوضح من ستيفن هوكينج؟
لم أدعِ هذا يوما ما بالتأكيد، وأنا من محبي هوكينج. لماذا إذن يحذر هوكينج من أخطار الذكاء الاصطناعي حتى أننا نجد اسمه على رأس قائمة الداعمين لأي نشاط حقيقي جاد يدعم تطوير آمن للذكاء الاصطناعي؟
هوكينج يرى أن كل ما وصلنا له حتى الآن من تطور في مجالات أبحاث العقل وأبحاث تطوير الذكاء الاصطناعي هو القشرة فقط، وأن مستقبلا مزدحما بشدة ينتظرنا، وهو المستقبل الذي يخشى هوكينج من خطورته المحتملة.
ويحذرنا هوكنيج دائما من غباء البشر وقدرتهم الجبارة على التدمير ويتوقع بشدة أن تنتهي الحياة على الأرض خلال ألف عام ما لم يصحح البشر من مسارهم الحالي، وهو المسار الذي يجمع بين تدمير البيئة، وشبح الحروب المستمرة، واستمرار التسليح النووي، غير إساءة استخدام المضادات الحيوية مما ينذر باحتمال تطور بعض البكتيريا الفائقة، تحمل لنا أمراضا لا يمكن علاجها، وهو ما بدأت بوادره بالفعل.
ومع كل هذا السفه البشري المؤكد بالفعل، يجب على البشر ألا يتحملوا توابع ثورة روبوتية مسلحة محتملة يوما ما حتى لو كان الاحتمال شبه مستحيل، ولو بعد ألف عام. ولهذا خصيصا، حماية للمستقبل، تم الإتفاق أخيرا وبعد عدة جولات سابقة على مبادئ عامة شاملة لتطوير تقنيات الذكاء الاصطناعي، يتفق عليها ويسير على نهجها الجميع.
معهد مستقبل الحياة «Future of Life» مرة أخرى
باجتماعهم في يناير 2017، كانت هذه المرة الثانية التي التقى فيها بعض هذا الجمع من علماء الذكاء الاصطناعي ورواد التقنية وغيرهم. قد سبقها اجتماع أول في 2015، تلاه بيان تحذيري من تسليح أي تقنية ذكاء اصطناعي تعمل دون توجيه بشري لتصبح هي صاحبة قرار القتل. تم إرسال البيان إلى الأمم المتحدة حاملا اسم هوكينج على رأس موقعيه. الهدف الأصلي من البيان كان الاعتراض على تطوير طائرات بدون طيار تختار الهدف وتقضي عليه دون تدخل وحدة التحكم من على بعد.
وهذه المرة والتي كانت في مجمع Asilomar للمؤتمرات، وتحت عنوان «ذكاء اصطناعي نافع BENEFICIAL AI». دام الاجتماع لخمسة أيام متواصلة، بهدف إنتاج وثيقة توافقية تحدد الأطر العامة لتطوير تقنيات الذكاء الاصطناعي، وهو ما حدث بالفعل، لينتج المؤتمر قائمة من 23 مبدأ مفتوحة للتوقيع عليها أمام الجميع، يتصدرهم ستيفن هوكينج كالعادة.
مبادئ تطوير الذكاء الاصطناعي
تشمل المبادئ 3 أقسام عامة تجمع 23 مبدأ
- أهداف البحث: يجب ألا تهدف أبحاث تطوير تقنيات الذكاء الصناعي لتطوير ذكاء غير موجه، بل ذكاء مفيد نافع.
- تمويل الأبحاث: الاستثمار في الذكاء الاصطناعي يجب أن يكون مصحوبا بتمويل لأبحاث تضمن استخدامه بشكل مفيد، متضمنة الأسئلة الشائكة في مجالات علوم الحاسوب والاقتصاد والقانون والأخلاق والعلوم الاجتماعية، مثل: كيف يمكننا أن نجعل أنظمة الذكاء الاصطناعي المستقبلية قوية بما يكفي لتقوم بعمل المهام المطلوبة بدون خلل وبدون أن تخترق؟ كيف يمكن أن نتحول للأتمتة لتحقيق النمو والازدهار مع ضمان استمرارية الهدف من وجود السكان/العمالة واستمرار مصادر دخولهم؟ (إحدى القضايا الشائكة المتعلقة بتطور التقنيات الآلية والذكية والتي تستبدل العمالة بسهولة وبتكلفة أقل). كيف يمكن أن نطور منظوماتنا القانونية لتصبح أكثر إنجازا وعدالة وكفاءة، متواكبة مع وجود الذكاء الاصطناعي، وقادرة على التعامل مع الأخطار المرتبطة به؟ ما هي القيم التي يجب للذكاء الاصطناعي الانحياز لها؟ وما هي القوانين والمواقف الأخلاقية التي يجب أن يتحلى بها؟
- الرابط بين العلم والسياسة: يجب أن يكون هناك تبادل بناء وصحي بين الباحثين وصناع السياسات
- ثقافة البحث: يجب أن تعزز ثقافة التعاون والثقة والشفافية بين باحثي ومطوري تقنيات الذكاء الاصطناعي.
- تجنب السباق: يجب أن تتعاون مختلف الفرق المطورة لتقنيات الذكاء الصناعي لتفادي تخطي حدود معايير الأمان.
القيم والأخلاقيات Ethics and Values
- الأمان: أنظمة الذكاء الاصطناعي يجب أن تكون آمنة ومؤمنة تماما طوال فترة عملها، مع التحقق من ذلك دائما حينما يكون الأمر متاحا وممكنا.
- الشفافية حالة الفشل: لو تسبب أن نظام ذكي في أذى، يجب أن يكون من الممكن التحقق من السبب.
- الشفافية حالة الاحتكام لآلة: أي مشاركة من نظام آلي مستقل في اتخاذ حكم ما يجب أن يوفر تفسيرا مرضيا قابلا للتدقيق من خلال سلطة بشرية متخصصة.
- المسئولية: مصممو وبناة أنظمة الذكاء الاصطناعي المتطورة هم أصحاب المصلحة في الآثار المترتبة على استخدامها وسوء استخدامها، مع تحمل المسئولية والفرصة المناسبة لتشكيل تلك الآثار.
- انحياز القيم: تقنيات الذكاء الاصطناعي المستقلة بشكل كبير يجب أن تصمم بحيث أن تكون أهدافها وتصرفاتها منحازة بشكل مؤكد للقيم البشرية طوال عملهم.
- القيم البشرية: يجب أن تصمم وتدار الأنظمة الذكية بشكل متوافق مع المثل العليا في القيم البشرية كالكرامة والحقوق والحريات والتنوع الثقافي.
- الخصوصية الشخصية: للبشر الحق الكامل في الوصول لبياناتهم، والتحكم فيها بشكل كامل، حال إعطاء تلك البيانات لأنظمة ذكية بغرض تحليلها واستخدامها.
- الحرية والخصوصية: تطبيق أنظمة الذكاء الاصطناعي على البيانات الشخصية يجب ألا يحجم من الحرية الشخصية الحقيقية أو المحسوسة.
- تشارك الفائدة: يجب أن يستفيد من المنظومات الذكية أكبر عدد ممكن من الناس.
- تشارك النمو والازدهار: يجب أن تتشارك البشرية جمعاء في الرفاهية والازدهار الاقتصادي الناتج عن استخدام آليات الذكاء الاصطناعي.
- التحكم البشري: يختار البشر كيف ومتى إذ أرادوا أن يُحال اتخاذ القرار لنظام ذكي بغرض إنجاز المهام التي يختارها المستخدم.
- غير مخربة: القوة الممنوحة لأنظمة ذكية متقدمة يجب أن تحترم وتطور ولا تخرب النهج والمدنية والتي يعتمد عليها مجتمع سليم.
- سباق التسلح الذكي: يجب تجنب السباق نحو تطوير أنظمة مسلحة آلية بالكامل.
قضايا طويلة الأمد Longer-term Issues
- الحذر من القدرات: لعدم وجود إجماع، يجب أن نتجنب الافتراضات التي تتوقع حد أقصى لقدرات الذكاء الاصطناعي المستقبلي.
- الأهمية: ربما سيمثل الذكاء الاصطناعي تغييرا عميقا لتاريخ الحياة على الأرض، ويجب أن يخطط لإدارة الأمر بالحرص والموارد المتناسبة.
- المخاطر: المخاطر التي يطرحها تطوير أنظمة ذكية، خصوصا الكارثية والمتعلقة بفناء الجنس البشري، يجب أن تصبح موضع بحث وتخطيط لتخفيف نتائجها بشكل يتناسب مع آثارها المتوقعة.
- التطوير الذاتي: الأنظمة الذكية المصممة لتطور أو تصنع نسخا أخرى ذكية بطريقة تضمن زيادة الجودة أو الكم يجب أن تخضع لنظام أمان وتحكم صارم.
- الصالح العام: الذكاء الخارق يجب أن يطور فقط في إطار خدمة المثل الأخلاقية الأكثر انتشارا، ولخدمة مصالح البشرية جمعاء، وليس لخدمة دولة أو منظمة محددة.
والموقعون هم نخبة علماء العالم
مع أن عدد الموقعين على الوثيقة حتى الآن لم يتجاوز حتى 1500 فرد وقت كتابة التقرير، فإن الوزن النوعي لهؤلاء يكفي لأن تصبح الوثيقة كبروتوكولات حكماء الذكاء الاصطناعي ربما. فالقائمة يتصدرها ديميس هاسيبس Demis Hassabis مؤسس ورئيس شركة DeepMind، وهي القسم الخاص بتطوير تقنيات الذكاء الاصطناعي في جوجل/ألفا بت. يليه الشريك المؤسس لمؤسسة OpenAI إيليا ستسكفر Ilya Sutskever، ثم يان ليجن Yann LeCun رئيس قسم الذكاء الاصطناعي في الفيسبوك. ومعهم 897 عالما متخصصا يمثلون أغلب الشركات ومراكز الأبحاث وأقسام الجامعات المتخصصة في الذكاء الاصطناعي وعلوم الحاسب والروبوتات.
أما عن خارج التخصص، فيتصدر ستيفين هوكنج Stephen Hawking قائمة الموقعين، يليه إيلون ماسك Elon Musk ثم جان تالين Jaan Tallinn الشريك المؤسس لسكايب، كممثل عن مركز دراسة الكوارث المهددة لوجود الجنس البشري معهد Future of Life.
قمت بإضافة اسمي لقائمة الموقعين، ويمكنك أنت أيضا ببساطة من خلال الصفحة الرسمية للمبادئ على الموقع الرسمي لمعهد Future of Life.
حسنا، ربما كانت تلك الوثيقة هي بالفعل الأمل الحقيقي لمستقبل غامض ما، وندعو الله ألا نصل لتلك المرحلة التي سنقف فيها ندا لند أمام آلة توجه فوهة سلاحها تجاه صدورنا، يكفينا قطعا ما نقوم به نحن بهذا الصدد.