بعد حادثة أمازون: خطر «الآلات الشريرة» يقترب منَّا
هل تخيَّلت يومًا أن مكنستك الكهربائية كانت قوية جدًّا بما يكفي لقتلك؟ أو أن المصعد قرر فجأة أنه لا يرغب في نقلك إلى حيث تريد بل إلى حيث يريد هو؟ حسنًا. ما سبق كان – حتى الآن – مجرد قصتين قصيرتين في مجموعة الفانتازيا «Evil Machines» أو الآلات الشريرة التي صدرت في 2011، للكاتب والممثل الويلزي «تيري جونز».
سيناريو مقارب حدث فعلًا منذ أيام، حين طالب مساعد أمازون الصوتي الذكي «أليكسا» من طفلة بريطانية لم تتجاوز 10 سنوات أن تلامس قطعة نقود معدنية بشوكتي شاحن موصَّل بالكهرباء.
ربما كان اقتراح أليكسا خطيرًا، لكن تبرير أمازون يكشف بُعْدًا أخطر: الفتاة طلبت من أليكسا اقتراح بعض التحديات، وقدَّمها المساعد الصوتي بالفعل، لتطلب تحديات أصعب. بحثت أليكسا عن تحديات على الويب، وقدَّمت «تحدي البنس» الذي تعلمته من تيك توك.
في الواقع لست مضطرًّا لامتلاك مكنسة روبوت أو مساعدًا رقميًّا مثل أليكسا أمازن لاستخدام الذكاء الاصطناعي. أصبح الذكاء الاصطناعي جزءًا من حياتنا اليومية بطرق لا نلاحظها، ناهيك عن التحكم فيها.
آلة لا تحتاج البشر
صاغ عالِم الحاسوب جون مكارثي مصطلح الذكاء الاصطناعي لأول مرة في عام 1956، باعتباره «هندسة صنع الآلات الذكية»، ليتطور التعريف لاحقًا إلى تعليم الآلة محاكاة القدرات الذهنية البشرية وأنماط عملها، مثل: قراءة البيانات الخارجية بشكل صحيح، واكتساب القدرة على تحليلها والتعلم منها، ثم تطوير استنتاجات مبنية عليها، واستخدام تلك البيانات لتطوير ردود فعل لم تدخل في برمجة الآلة الأصلية.
بمعنًى آخر، أنت تعلِّم الآلة أن تتصرف بذكاء دون تدخل بشري، سعيًا لإعادة بناء قدرات مماثلة لتلك التي يملكها العقل البشري، بمعنًى ثالث، أن تمنح الآلة مفتاح القرار.
يشير بعض العلماء البارزين، مثل الفيزيائي ستيفن هوكينج وإمبراطور تسلا إيلون ماسك، إلى أن الذكاء الاصطناعي يمكن أن يكون خطيرًا للغاية. كان ماسك في مرحلة ما يقارن الذكاء الاصطناعي بمخاطر ديكتاتور كوريا الشمالية.
وبينما تدور التطورات الحالية في نطاق ما يعرف بـ «الذكاء الاصطناعي الضيق» أو «الذكاء الاصطناعي الضعيف»، باعتباره مصمَّمًا بالأساس لأداء مهام محددة ومحدودة، فإن الهدف طويل المدى للعديد من الباحثين هو إنشاء ذكاء اصطناعي عام «AGI». وهنا قد يبدو تهديد الآلات الشريرة أكثر واقعية؛ إذ ستتفوق الآلة على البشر في كل المهام المعرفية تقريبًا.
خطر قريب ثم كابوس أكبر
على المدى القريب احتمالات التهديد قائمة. تشمل تطبيقات الذكاء الاصطناعي مثلًا السيارات ذاتية القيادة، وأجهزة تنظيم ضربات القلب، وشبكات الطاقة المنزلية. في هذه المرحلة، ربما تقتصر المخاوف على فشل الآلة في اتخاذ القرار الصحيح. تخيل مثلًا أنك تقود سيارة في شارع مزدحم، لكنك لست من يتحكَّم فيها، بل الذكاء الاصطناعي. ماذا سيحدث لو كانت السيارة مطالبة بالاختيار بين الاصطدام بأطفال يعبرون الطريق بالخطأ، أو الاصطدام بالحائط؟
ربما يبقى كذلك تعطل الكمبيوتر الذي يتحكم في الآلة كابوسًا. وربما يكون تعرضه للاختراق ومن ثَم تحكم أحدهم فيه كابوسًا أكبر. لكن كل ذلك لا يقارن بمخاطر المدى الطويل، حين يكون الذكاء الاصطناعي قويًّا ومعقدًا بدرجة تفوق البشر في جميع المهام الإدراكية.
حينها ستواصل الآلات التحسن الذاتي بشكل لا يتوقف، بينما يبقى الفكر البشري بعيدًا عن الركب.
سيناريوهان للآلات الشريرة
يتفق معظم الباحثين على أنه من غير المرجح أن يُظهِر الذكاء الاصطناعي الخارق مشاعر إنسانية مثل الحب أو الكراهية. بالتالي، لا يوجد سبب أن يطور الذكاء الاصطناعي نفسه لينتج آلة خيرة أو شريرة. لكن الخبراء يرجِّحون سيناريوهين للتحول إلى عصر الآلات الشريرة.
1. برمجة الذكاء الاصطناعي للتدمير:
في عصرنا الحالي تبرمج الأسلحة ذاتية التشغيل لتحكمها أنظمة ذكاء اصطناعي مبرمج بغرض القتل. ولتجنب نجاح العدو في السيطرة على الآلة يتجه الباحثون العسكريون لتصميم الأسلحة بنمط يجعل من الصعب التدخل لإيقافه بشريًّا.
عند مرحلة معينة لا يستبعد الباحثون أن يفقد المصممون السيطرة على السلاح، الذي سيكون حينها قد طور وسائله الخاصة للتعامل مع مختلف المواقف دون حاجة لتوجيه.
2. تحول البرمجة آليًّا إلى الشر:
يفترض الخبراء في هذا السيناريو أن الذكاء الاصطناعي سيكون مبرمجًا للقيام بشيء مفيد، لكنه يطور طريقة مدمرة لتحقيق هدفه؛ باعتبار أن أنظمة الذكاء الصناعي تبحث عن أسرع الطرق لتحقيق المهمة المطلوبة، بغض النظر عن أي اعتبار آخر.
إن كنت تذكر مثال أليكسا الأول فستدرك الأمر بصورة أبسط. المساعد الذكي لم يكن ينوي أبدًا الإضرار بالطفلة، لكنه بحث عن طريقة لمساعدتها في خلق تحديات جديدة. كذلك إذا طلبت من السيارة نقلك إلى مقر عملك بأسرع طريقة ممكنة، فستنفذ الأمر بحذافيره مهما كانت الخسائر. هذا في حالات فريدة، ومع ذكاء اصطناعي ضيق تخيل مثلًا أن نظام ذكاء اصطناعي فائق تلقى أمرًا بإدارة مشروع هندسة جيولوجية طموح، حينها قد يسبب فوضى في النظام البيئي، وسيتعامل مع أي محاولة بشرية لإيقافه باعتبارها تهديدًا عليه تدميره من أجل الوصول إلى الهدف.
الأمر يشبه بالضبط تعاملك مع بيت النمل الذي يفسد السكر في مطبخ منزلك. لن تتردد في إزالته. العلماء يخشون من أن الذكاء الاصطناعي قد يتعامل مع البشر مستقبلًا كما نتعامل نحن مع النمل، ويسحقنا لو اعترضنا طريقه.
أقرب مما تتخيَّل
لطالما كان الباحثون ينظرون إلى فكرة الذكاء الاصطناعي القوي باعتبارها خيالًا علميًّا، لم يستبعدوا تحقُّقه تمامًا، لكنهم ظنوا أن قرونًا على الأقل تفصل البشرية عن تلك النقطة. لكن، مع الإنجازات الأخيرة في المجال، باتت التوقعات أننا على بعد عقود فقط من تلك المرحلة. معظم أبحاث الذكاء الاصطناعي في مؤتمر بورتوريكو 2015 توقعت أن ذلك سيحدث قبل عام 2060. وبينما توقع باحثون ألا يحدث أصلًا، أو يحدث خلال قرون، كان متوسط الإجابة أن سطوة الذكاء الاصطناعي ربما تتحقق بحلول عام 2045.
حينها، يفترض أن يملك الذكاء الاصطناعي القدرة على أن يصبح أكثر ذكاءً من أي إنسان، دون طريقة مؤكدة للتنبؤ بكيفية تصرفه؛ لذلك تتسارع أبحاث السلامة لإبقاء الأمور تحت تصرف البشر، مهما بلغ ذكاء الآلة.
يقول مالكولم موردوك، مهندس التعلم الآلي ومؤلف رواية 2019 The Quantum Price، للإشارة إلى مدى التهديد: «لا يجب أن يكون الذكاء الاصطناعي واعيًا لقتلنا جميعًا». وهو ما يتفق معه إيلون ماسك تقريبًا، إذ يرى أن خطر الآلات الشريرة قد يكون أقرب مما نتصور، متوقعًا «حدوث شيء خطير للغاية في إطار زمني مدته خمس سنوات، أو 10 سنوات على الأكثر».
صراع الآلات القاتلة
التقدم في نمذجة آلات القتل الروبوتية لا يقل إثارة للقلق.
في الستينيات وصفت رواية الخيال العلمي الروسية Crabs on the Island نوعًا من «ألعاب الجوع» التي ستكون بطلتها روبوتات الذكاء الاصطناعي، التي ستصل بدرجة من الوعي للتنافس بعضها مع بعض للحصول على الموارد. تصف الرواية سيناريو عراك بين الروبوتات يؤدي لتدمير الخاسرين، ليحصل الفائزون فقط على فرصة البقاء، حتى يتطور بعضها ليكون أفضل آلات القتل.
عندما ذكر أحد علماء الكمبيوتر البارزين سيناريو مشابهًا لوكالة مشروعات الأبحاث الدفاعية المتقدمة الأمريكية (داربا)، واصفًا إياه بـ «روبوت جوراسيك بارك» (آلات حديقة الديناصورات)، وصفه أحد القادة بأنه «ممكن»، في إشارة للفيلم الشهير عن الثري الذي رعى أبحاثًا لإعادة إحياء الديناصورات من جديد، فمزَّقت الأسوار وقتلت الجميع.
لا يتطلب الأمر الكثير من التفكير لإدراك أن مثل هذه التجربة قد تخرج عن السيطرة. والمطمئن حتى الآن أن حاجز النفقات الباهظة سيمنع القوى العظمى من إجراء التجربة.
لا يمكن إيقافها
أستاذ علوم الكمبيوتر ورائد الذكاء الاصطناعي ستيوارت راسل يحذر من أن الذكاء الاصطناعي بطريقه الحالي وإن لم يُعَدْ ضبطه فسيتحول في مرحلة معينة إلى سيناريو الآلات الشريرة حتى لو حاولنا منعه.
يقول: «حين تعتقد أنك وضعت أسوارًا حول ما يمكن أن يفعله نظام الذكاء الاصطناعي، فإنه يميل إلى إيجاد ثغرات، تمامًا كما نفعل مع قوانين الضرائب لدينا. نحتاح إلى نظام للذكاء الاصطناعي لا يتحمس لإيجاد ثغرات».
يضيف أن المشكلة ليست في الوعي، بل الكفاءة. فحينما تصنع آلات تتمتع بكفاءة لا تصدق في تحقيق الأهداف، ستتسبب في وقوع حوادث في محاولة تحقيق تلك الأهداف لا محالة.
نحن هنا لا نتحدث عن وقوع التكنولوجيا في اليد الخطأ، ولا حتى ارتكاب أخطاء غير مقصودة. الأيدي الخطأ قد تكون هي التكنولوجيا نفسها رغم حُسن نوايا مبرمجيها. هل تذكر ما قلناه عن سلوك أليكسا في بداية الموضوع؟
فلنأمل ألا نعيش أيامًا يكون علينا فيها أن نواجه «شرَّ الآلات»؛ لأن العواقب حينها ستكون أكثر قسوة مما نتخيل.