محتوى مترجم
المصدر
slate
التاريخ
2016/05/18
الكاتب
مايكل كوروست

يعتقد البعض أن الذكاء الاصطناعي سيقضي علينا. ففي كتابه لعام 2014 بعنوان Superintelligence، يطرح الفيلسوف بجامعة أكسفورد نيك بوستروم عدة تصورات ليوم الدينونة. يقول أحد هذه التصورات إن الذكاء الاصطناعي قد «يغطي كامل سطح الأرض بالألواح الشمسية، المفاعلات النووية، المنشآت الحاسوبية الضخمة مع أبراج التبريد النافرة، مطلقات الصواريخ الفضائية، أو المنشآت الأخرى حيث يميل الذكاء الاصطناعي إلى تعظيم إدراكه التراكمي بعيد المدى لقيمه إلى أقصى حد».

هذا النوع من مشروعات إعادة التزيين – الغطاء الجديد لسطح الأرض – لن يترك أي مساحة لنا، أو لمحيط حيوي مناسب لوجودنا. ويحذر بوستروم بشكل غامض: «أمام احتمالية حدوث تفجر الذكاء، نبدو نحن البشر كأطفال صغار يلعبون بقنبلة». (اقرأ بعض مقتطفات «فيوتشر تينس» من كتاب بوستروم).

إلى أن يتمتع الذكاء الاصطناعي بالأحاسيس، سيكون غير قادر على أن يريد أي شيء مطلقًا، ناهيك عن أن يتصرف عكس مصالح البشرية وأن يقاتل المقاومة الإنسانية

طُرح العديد من الحجج المضادة في مواجهة تفجرات الذكاء غير المتوقعة، والتي ركزت إلى حد كبير على القيود الفنية والمنطق. على سبيل المثال، أشار كاتب الخيال العلمي، رامز نام، في مقالٍ له بمجلة «إتش بلس» إلى أنه حتى العقل فائق الذكاء سيحتاج وقتًا وموارد ليخترع تكنولوجيات مدمرة للبشرية؛ حيث سيضطر للمشاركة في الاقتصاد الإنساني للحصول على ما يحتاجه (على سبيل المثال، بناء شرائح أسرع لا يتطلب تصميمات جديدة فقط، بل مسابك تصنيع الرقائق المكلفة والمعقدة لبنائها).

لكن هناك حجة مضادة أخرى يمكن طرحها بناء على فلسفة الأخلاق. فإلى أن يتمتع الذكاء الاصطناعي بالأحاسيس، سيكون غير قادر على أن يريد أي شيء مطلقًا، ناهيك عن أن يتصرف عكس مصالح البشرية وأن يقاتل المقاومة الإنسانية. تعتبر الرغبة أمرًا ضروريًا لحدوث أي نوع من التصرفات المستقلة. وفي اللحظة التي سيريد فيها الذكاء الاصطناعي أي شيء، سيعيش في كونٍ به مكافآت وعقوبات – بما في ذلك العقوبات من قِبَلنا لتصرفه بشكل سيء. من أجل الصمود في عالم يهيمن عليه البشر، سيضطر الذكاء الاصطناعي إلى تطوير حسٍ أخلاقي على غرار البشر تجاه كون أمور محددة صحيحة، وكون أمور أخرى خاطئة. بحلول الوقت الذي سيكون فيه الذكاء الاصطناعي في موقعٍ لتصور تغطية الأرض بالألواح الشمسية، سيعلم أنه سيكون من الخطأ أخلاقيًا فعل ذلك.

لنبدأ بإشارة بوستروم إلى إدراك قيم الذكاء الاصطناعي. لإعطاء قيمة لأمر ما، ينبغي على الكيان أن يكون قادرًا على الشعور. بشكل أكثر تحديدًا، يجب أن يكون قادرًا على أن يريد أمرًا ما. وحتى يشكل تهديدًا على البشرية، ينبغي على الذكاء الاصطناعي أن يكون قادرًا على قول: «أريد أن أغطي الأرض بالألواح الشمسية». وبالتالي، عند مواجهته بالمقاومة، سيتوجب عليه أن يكون قادرًا على تصور الإجراءات المضادة، وعلى أن يريد تنفيذها. باختصار، سيحتاج الذكاء الاصطناعي إلى الشعور بالرغبة تجاه حالات معينة، والنفور من حالات أخرى.

تفتقد برمجيات اليوم هذه القدرة، وليس لدى علماء الحواسب فكرة عن كيفية الحصول عليها. ودون الإرادة، ليس هناك أي حافز لفعل أي شيء. فحواسب اليوم لا يمكنها حتى أن ترغب في الاستمرار في الوجود، ناهيك عن تغطية العالم بالألواح الشمسية.

على سبيل المثال، هزم برنامج جوجل «ألفا جو» مؤخرًا بطل العالم في لعبة Go. استخدم مهندسو جوجل استراتيجية لـ«التعلم العميق»، عبر تغذية شبكة عصبية بملايين الألعاب التي لعبها البشر بطريقة مكنت الشبكة من نمذجة كيفية تصرف اللاعبين الخبراء. في النهاية، يمكن لـ«ألفا جو» ببساطة أن «تراقب» أثناء لعب أحد الأدوار وتتنبأ بأي الطرفين سيفوز، دون إجراء أي بحث متطلع إلى المستقبل على الإطلاق.

لا أحد يعلم كيف أدى التعقيد البيولوجي إلى وجود الأحاسيس

كل ذلك مذهل للغاية. لكن برنامج «ألفا جو» ليس لديه أي فكرة عن أنها يلعب لعبة – بالفعل، ليس لديه شعور بفعل أي شيء مطلقًا. لا يشعر بأي سعادة عند الانتصار، ولا ندم عند الخسارة. ليس لديه قدرة على قول: «لا أفضل لعب Go اليوم، لنلعب الشطرنج بدلًا منها». ففي جوهره، هو عبارة عن مجرد تريليونات من البوابات المنطقية.

حسنًا! قد تقول بأن هذا هو حال أدمغة الثدييات. لكن لماذا تريد أدمغة الثدييات أشياءً؟ لا أحد يعلم كيف أدى التعقيد البيولوجي إلى وجود الأحاسيس (التي يسميها الفلاسفة «الكيفيات المحسوسة»). لكننا نعرف أن الأحاسيس تمثل اختصارًا إدراكيًا لمعرفة ما هو مفيد وما هو غير مفيد. الأكل يولد إحساسًا جيدًا، على عكس الجوع. كان مثل هذه الأحاسيس مفيدًا من الناحية التطورية، ما يفسر استمراره وتضخيمه.

وحتى الآن، يمكن لعلم الأحياء ففط أن يفعل ذلك. ففي كتابه، Being No One، يذكر الفيلسوف الألماني توماس ميتزينجر أن علم الأحياء متقدم على الحوسبة البشرية لأنه يمكنه استخدام الكيمياء المائية لإنشاء نظم معقدة بشكل رائع. حيث يستخدم المياه، التي تمثل وسطًا ومذيبًا. وتسمح المياه للجزيئات الحاملة للمعلومات بالوجود في المستعلق وتساعد في حدوث تفاعلاتها. يسمح ذلك بوجود حلقات التغذية الراجعة العديدة، الموازية، وشديدة الحساسية على المستوى الجزيئي. ولا تعد الحواسب حتى قريبة من التمتع بهذا النوع من التعقيد. يكتب ميتزينجر: «سيكون النوع السلس والموثوق به من تقديم الذات متناهي الصغر، القائم على الديناميكيات على المستوى الجزيئي – التي تحرك القدرة المتواصلة على استقرار الذات في النظام الاستبابي لجذع المخ ومنطقة التحكم في الهرومونات لدى الإنسان – بعيد المنال لفترة طويلة».

بينما كتب ميتزينجر هذا عام 2003، قبل ظهور تقنيات متقدمة في المراقبة العصبية مثل علم البصريات الجينية، لايزال العلماء بعيدين جدًا عن أن يكونوا قادرين على صنع النظم المعلوماتية التي تقترب من التعقيد الذي أصبح ممكنًا بفضل الكيمياء المائية. أشار مقال، نشر عام 2012 في «نيورون»، إلى أن العلماء لا يزالون يناضلون لنمذجة نشاط ربع ملليمتر مكعب من عقل فأر.

سيرد مؤيدو الذكاء الاصطناعي بأن علم الأحياء، رغم تعقيده، لا يزال يتلخص في معالجة المعلومات، لذلك يجب أن يكون (مبدئيًا) قابلًا للتكرار في مواد أخرى. ربما، لكن هذه الحجة تستبعد أمرًا. فطوال مليارات السنوات، كان على نظم المعلومات المائية أن تتعامل مع بيئات معقدة للغاية. وبشكل عام، يتناسب تعقيد نظام المعلومات مع تعقيد بيئته – وينبغي عليه ذلك، وإلا فلن يتمكن من الصمود. وتنطوي الكيمياء الحيوية الجارية في ملليمتر مكعب من التراب، أو ربع ملليمتر مكعب من دماغ فأر، على أوامر بحجم أكثر تعقيدًا من أي شيء يواجهه الحاسوب.

حواسب اليوم قد تسحقك في لعبة Go مع عدم امتلاكها لأدنى فكرة عن فعلها ذلك.

على النقيض، تعيش الحواسب في بيئة بسيطة جدًا. حيث تتلقى تدفقات من البيانات، وتصدر تدفقات من البيانات. وهكذا كل ما في الأمر. تحصل على وفرة من «الغذاء»، وليس هناك تهديدات، ولا مكافآت، لحصولها على تلك الوفرة. ولذلك فإن حواسب اليوم قد تسحقك في لعبة Go مع عدم امتلاكها لأدنى فكرة عن فعلها ذلك. إنها بسيطة للغاية، ما يخبرنا بسبب عدم تشكيل الذكاء الاصطناعي لأي تهديد.

وعلى سبيل المكافأة، يخبرنا ذلك أيضًا بكيفية الحصول على ذكاء اصطناعي يمكنه أن يريد أشياءً. فللحصول على نظام لديه أحاسيس، ستضطر للسماح له بتلخيص العملية التطورية التي أصبحت المشاعر من خلالها ذات قيمة. سيعني ذلك وضعه داخل بيئة معقدة تجبره على التطور. ينبغي على البيئة أن تكون معقدة لدرجة قاتلة، لتقتل الأنظمة غير الفعالة وتكافئ الأنظمة الفعالة. يمكن أن تكون مسكونة بالروبوتات المعبئة بالمستشعرات والمناورات، حتى تستشعر التهديدات وتتصرف تجاهها. وستحتاج هذه الربوبتات إلى أن تكون قادرة على صنع نسخ جديدة منها، أو على الأقل أن تتمكن من طلب تلك النسخ من مصانع الروبوتات، وأن تورث استراتيجياتها وآلياتها الناجحة إلى «أطفالها».

تقدم الروبوتات المتصورة من قبل المتخصص في علم الروبوتات هانز مورافيك، في كتابه لعام 1990، Mind Children، أمثلة رائعة على الروبوتات المتوافقة مع التطور. يسميهم مورافيك «الشجيرات الروبوتية» لأن كل طرف يتفرع كالأغصان بشكل مجزء إلى أطراف أخرى. عند نهاية كل طرف سيكون هناك مليارات أو حتى تريليونات من المناورات ضئيلة الحجم على المستوى الجزيئي. سيكون مثل هذا الروبوت قادرًا على الإحساس بالبكتيريا والمواد الكيميائية على سطحه عبر لمس شيء بملايين الأصابع. سيتمكن من قراءة كتابٍ كاملٍ في مرة واحدة عبر الإحساس بالطباعة على صفحاته. «رغم تشابهه الهيكلي بالعديد من الكائنات الحية، سيكون مختلفًا عن أي شيء رأيناه من قبل على الأرض»، حسبما يتخيل مورافيك، «ذكائه العظيم، تناسقه الرائع، سرعته الخيالية، وحساسيته الهائلة تجاه بيئته ستمكنه باستمرار من فعل أمور مفاجئة، مع حفاظه في الوقت ذاته على رشاقة دائمة». يقدم مورافيك توضيحًا لما قد تبدو عليه هذا «الشجيرة الروبوتية».

لنفترض أنك وضعت مثل تلك «الشجيرات الروبوتية» داخل سفينة فضاء عملاقة بها نظام بيئي مغلق الدائرة يحتاج إلى الصيانة باستمرار. أفكر هنا في «تيراريا» التي ذكرها كيم ستانلي روبنسون في روايته، 3212، التي تتكون من كويكبات مجوفة ممتلئة بنظام بيئي داخلي كبير. وفي روايته، Aurora، بحث بشكل أكبر مدى صعوبة صيانة نظام بيئي إلى الأبد دون عمليات تقطير من الأرض. كانت إجابته أن الأمر سيكون ضربًا من ضروب المستحيل. لكن ربما مثل هذه التيراريا يمكن صيانتها من خلال «الروبوتات الشجرية» التي تعيش في التربة، وتراقب باستمرار كيميائها الحيوية وأحيائها الدقيقة وتعدل ميكروبات البيئة باستخدام الميكروبات. ستستنسخ الروبوتات الناجحة نفسها، وستتم إعادة هيكلة الروبوتات الأقل نجاحًا. أغلق هذا النظام البيئي واتركه لفترة طويلة. ثم قد تحصل في النهاية على ذكاءٍ اصطناعي لديه أحاسيس. وقد يمثل ذلك بداية لنوع ذكي وجديد تمامًا.

في اللحظة التي يحصل فيها نظام معالجة المعلومات على الأحاسيس، يمكن له أن يمتلك بديهيات أخلاقية.

والآن لنفترض أن البشر قد اخترعوا روبوتات من هذا النوع، وبعد أجيال متعاقبة بدأت الروبوتات امتلاك أحاسيس. في اللحظة التي يحصل فيها نظام معالجة المعلومات على الأحاسيس، يمكن له أن يمتلك بديهيات أخلاقية. في البداية ستكون تلك البديهيات بسيطة، على طريقة «الطاقة جيدة، وعدم توافرها سيء». لاحقًا قد يدرك بديهيات مثل المعاملة بالمثل والنفور من إيذاء المقربين. حيث يشير الفيلسوف بجامعة برينستون، بيتر سينجر في كتابه، The Expanding Circle، إلى أن الكلاب، الدلافين، الشمبانزيات تظهر ما يمكن اعتباره سلوكًا أخلاقيًا كالمعاملة بالمثل والإيثار. لوحظ ذلك أيضًا لدى الفئران، التي ستختار أن تنقذ مرافقًا يغرق عن أكل الشوكولاتة. إن كانت البديهيات الأخلاقية تمنح الكفاءة، وإن كانت الكائنات الحية قادرة على تمرير هذه البديهيات إلى ورثتها، يصبح الكون في طريقه نحو امتلاك أخلاقيته الخاصة.

وهنا تأتي النقطة الحاسمة. فبمجرد امتلاك نوع له بديهيات أخلاقية للقدرة على التفكير، تميل أخلاقيته إلى التحسن بمرور الوقت. يسمي سينجر هذه العملية ب«سلم التفكير المتحرك». لنقل أنك وأنا نعيش في قبيلة بدائية من البشر. إن قلت لك أنني يمكنني امتلاك ثمار جوز أكثر منك، ستسأل عن سبب ذلك. وللإجابة على سؤالك، يجب أن أقدم سببًا – ولا يمكن أن يكون مجرد سبب مبهم. فالأسباب السيئة ستؤدي في النهاية إلى إثارة تمرد، أو انهيارٍ مجتمعي. فحتى الكلاب تفهم فكرة الإنصاف وستوقف تعاملها مع البشر الذين يعاملونها بشكل غير عادل.

بمجرد البدء بتقديم الأسباب، يصبح ممكنًا التشكيك فيها. لماذا يحصل القائد على ثمار جوز أكثر؟ هل هذا منصف حقًا؟ «التفكير توسعي بطبعه»، حسبما كتب سينجر، «إنه يسعى إلى التطبيق الشامل». يوضح عالم النفس بجامعة هارفارد، ستيفن بينكر، في كتابه، The better Angels of Our Nature، الذي يستلهمه من عمل سينجر، أنه على المدى الطويل من التاريخ، تراجع العنف باستمرار وزادت المعايير الأخلاقية. وهو ما يعد صحيحًا حتى مع وضع الحرب العالمية الثانية والهولوكوست في الحسبان. قد يستغرق الأمر وقتًا طويلًا، لكن كل تقدم يمهد الطرق للتقدم للتالي. فدعاة إلغاء عقوبة الإعدام في القرن التاسع عشر مهدوا الطريق للمطالبات بحق المرأة في التصويت في القرن العشرين، اللاتي مهدن الطريق بدورهن لنشطاء حقوق المثليين في القرن الحادي والعشرين.

ستكون الذكاءات الاصطناعية في الواقع أكثر مسؤولية، ونظامًا، وقدرةً على ضبط النفس بكثير بالمقارنة بالبشر

لم يدرس سينجر الذكاء الاصطناعي، لكن حجته تشير إلى أن سلم التفكير المتحرك يقود المجتمعات إلى خير أكبر بغض النظر عن أصل النوع. سيتعين على الذكاءات الاصطناعية أن تتقدم نحو سلم التفكير المتحرك تمامًا مثلما فعل البشر، لأنها ستحتاج إلى المساومة على السلع في اقتصادٍ يهيمن عليه البشر وستواجه مقاومة بشرية في مواجهة سلوكها السيء. يقول الفيلسوف جون سمارت: «إن كانت الأخلاقية والمناعة عمليتان تطويريتان، وإن كانتا تظهران بشكل حتمي لدى جميع الجماعات الذكية كنوع من اللعبة الرابحة، فيتعين عليهما أيضًا النمو في القوة والمدى مع نمو القدرة الحسابية لكل حضارة».

بالفعل يظن جون سمارت أنه في ضوء قدرتها على المعالجة، ستكون الذكاءات الاصطناعية في الواقع «أكثر مسؤولية، نظامًا، وقدرةً على ضبط النفس بكثير بالمقارنة بالبشر». بدلًا من الرعب تجاه الذكاء الاصطناعي مفتقد الحس الأخلاقي والهائج، يعد هذا مستقبلًا يستحق التطلع إليه. بعبارة أخرى، إنه مستقبل يستحق إفساح المجال أمام التطور ليصنعه.