كل ما تعرفه عن برامج الذكاء الاصطناعي خاطئ
محتوى مترجم | ||
المصدر | ||
التاريخ | ||
الكاتب |
لقد حصلت برامج الذكاء الاصطناعي على الإشادة ووصفت بأنها الاختبار الأهم لآلات الذكاء منذ أن فاز حاسوب «ديب بلو» على جاري كاسباروف في الشطرنج قبل قرابة 20 عاما.
وأيضا فاز برنامج «ألفا جو»، الذي طورته جوجل، بمبارتين من أصل 3 في بطولة الأساتذة للشطرنج ضد الكوري لي سيدول في دورة (جو)، ما يظهر المدى المثير الذي تطورت من خلاله برامج الذكاء الاصطناعي على مدار السنين.
لم يبدو ذلك اليوم الذي تصبح فيه الآلات أكثر ذكاء من البشر، أقرب عن ذي قبل، على الرغم من ذلك، يبدو أننا لم نقترب من استيعاب الآثار المترتبة على ذلك الحدث العظيم.
في واقع الأمر، نتمسك ببعض المفاهيم الخاطئة والخطيرة عن الذكاء الاصطناعي، ففي أواخر العام الماضي حذر إيلون ماسك المؤسس المشارك في شركة «سبيس إكس» من أن الذكاء الاصطناعي قد يسيطر على العالم، ما أثار موجة من التعليقات سواء بالاستنكار أو التأييد.
هناك خلاف كبير يظهر حيال ذلك الحدث المستقبلي الضخم، حول ما إذا كان ذلك سيحدث أم لا، وما الشكل الذي سيتخذه.
يُعد ذلك الأمر مربكا بشكل خاص عندما نفكر في الفوائد الهائلة التي سنحصل عليها من الذكاء الاصطناعي وأيضا مخاطره المحتملة، وعلى عكس أي اختراع إنساني، فإن برامج الذكاء الاصطناعي لديها القدرة على إعادة صياغة الإنسانية، لكنها قد تدمرنا أيضا.
من الصعب أن ندرك ما يمكن تصديقه في ذلك الأمر، لكن بفضل العمل الرائد لعلماء الحاسب وعلماء الأعصاب وأصحاب نظريات الذكاء الاصطناعي، تبدأ صورة أكثر وضوحا في الظهور أمامنا.
وفيما يلي المفاهيم الخاطئة والخرافات الشائعة حول برامج الذكاء الاصطناعي:
الخرافة الأولى: لا يمكننا خلق برامج الذكاء الاصطناعي إطلاقا من خلال الذكاء الإنساني
الحقيقة: نمتلك فعليا حواسيب تعادل أو تفوق القدرات البشرية في ألعاب مثل الشطرنج وجو وسوق الأوراق المالية والمحادثات ويمكن أن تغدو الحواسيب والخوارزميات، التي تقود تلك الأشياء، أفضل وسيكون الأمر مسألة وقت فحسب قبل أن تتفوق على أي نشاط إنساني.
قال جاري ماركوس باحث علم النفس بجامعة نيويورك: «ظاهريا يعتقد أي شخص يعمل في الذكاء الاصطناعي أن تلك الآلات ستسيطر علينا في نهاية المطاف، إن الفارق الوحيد الحقيقي بين المتحمسين والمشككين في ذلك هو الإطار الزمني».
وتابع «إن علماء المستقبل مثل راي كرزويل يعتقدون أن ذلك قد يحدث في غضون عقدين، بينما يقول آخرون إن ذلك قد يستغرق قرونا».
هناك عدم اقتناع لدى المشككين في برامج الذكاء الاصطناعي حيث يقولون إنها تمثل مشكلة تقنية غير قابلة الحل، وأن ثمة شئ فريد من نوعه بشكل جوهري حول العقول البيولوجية، فعقولنا هي آلات بيولوجية لكنها آلات على الرغم من ذلك بمعنى أنها موجودة في العالم الفعلي وتلتزم بالقوانين الأساسية للفيزياء.
الخرافة الثانية: الذكاء الاصطناعي سيكون شعوريا
الحقيقة: الافتراض الشائع عن برامج الذكاء الافتراضي هو أنها ستكون شعورية، بمعنى أنها ستفكر فعليا وتتصرف كما البشر.
الأكثر من ذلك، فإن منتقدين مثل المؤسس المشارك لميكروسوفوت باول آلين، يعتقدون أننا لم نحقق حتى الآن ذكاء اصطناعيا عاما، أي أن يكون الذكاء الاصطناعي قادرا على أداء أي عمل فكري كما الإنسان، لأننا نفتقر إلى النظرية العلمية للوعي.
لكن كما يشير موراي شاناهان أستاذ علم الروبوتات الإدراكية بكلية لندن في تصريحات لموقع جيزمودو: «يجب أن نتجنب الخلط بين هذين المفهومين، بمعنى أن الوعي يُعد موضوعا مهما ومدهشا بحق، لكنني لا أعتقد أنه ضروري للذكاء الاصطناعي على مستوى الإنسان».
وتابع «لكي أكون أكثر دقة، نحن نستخدم كلمة وعي للإشارة إلى عدة سمات نفسية وإدراكية، وتأتي تلك السمات في حزمة واحدة مجتمعة داخل البشر».
من الممكن تخيل أن آلة ذكاء تفتقر إلى واحد أو أكثر من تلك السمات، وفي نهاية المطاف، ربما ننشئ برنامج ذكاء اصطناعي يتسم بالذكاء الشديد، لكنه قادر على مواجهة العالم بطريقة فيها إدراك للذات وموضوعية ووعي.
وأوضح شاناهان أنه قد يكون ممكنا الجمع بين الذكاء والوعي داخل آلة واحدة، لكن لا ينبغي أن نغض الطرف عن حقيقة أنهما مفهومان مختلفان.
ولا يعني أن تمر أية آلة من اختبار تورينج، والذي يكون لايمكن من خلاله التمييز بين الحاسوب والإنسان العادي، أنها تتسم بالوعي. بالنسبة لنا، ربما تعطي برامج الذكاء الاصطناعي المتقدم انطباعا بالوعي، لكنها لن تكون واعية لنفسها أكثر من صخرة أو آلة حاسبة.
الخرافة الثالثة: لا ينبغي أن نخشى برامج الذكاء الاصطناعي
الحقيقة: في يناير/كانون الثاني الماضي، قال مؤسس موقع فيسبوك مارك زوكربيرج «لا يجب أن نخشى برامج الذكاء الاصطناعي».. مشيرا إلى أنها ستقوم بكثير من الخير في العالم.
نصف كلام زوكربيرج صحيح، فنحن مقبلون على حصاد فوائد هائلة من الذكاء الاصطناعي بداية من السيارات ذاتية القيادة إلى تصنيع دواء جديد، لكن لا يوجد ضامن في أن كل تجسيد للذكاء الاصطناعي سيكون حميدا.
قد يكون النظام الذكي ملما بكل شئ حول مهمة معينة، مثل حل مشكلة مالية شائكة أو قرصنة نظام العدو، لكن بعيدا عن تلك العوالم المتخصصة، سيتسم ذلك النظام بالجهل الجسيم وعدم الإدارك.
إن نظام «جوجل ديب مايند» يتسم بالمهارة في لعبة جو، لكن ليس لديه القدرة أو العقل للبحث في مجالات خارج هذا النطاق.
ربما لا يكون الكثير من تلك الأنظمة مزودا باعتبارات السلامة، المثال الجيد على ذلك هو فيروس ستوكنست القوي والمعقد، وهو عبارة عن فيروس متنقل طوره الجيشان الأمريكي والإسرائيلي لاختراق واستهداف منشآت طاقة نووية إيرانية.
هذا البرنامج الخبيث نجح بشكل أو بآخر (سواء عن عمد أو مصادفة) في الإضرار بمحطة طاقة نووية روسية.
وهناك أيضا برنامج «فلام»، ويستخدم في التجسس الإليكتروني بمنطقة الشرق الأوسط، من السهل تخيل أن إصدارات مستقبلية من ستوكنست أو فلام ستنتشر وتتسبب في تدمير لا يُحصى للبنية الأساسية الحساسة.
ملحوظة: هذه الفيروسات لا تُعد ضمن آليات الذكاء الاصطناعي، لكن في المستقبل قد يتم إمدادها به، ومن هنا يأتي الاهتمام.
الخرافة الرابعة: برامج الذكاء الاصطناعي ستكون ذكية للدرجة التي تجعلها ترتكب أخطاء
الحقيقة: يعتقد ريتشارد لووزمور الباحث في الذكاء الاصطناعي ومؤسس «سيرفينج ساموراي روبوتس» أن معظم السيناريوهات الكارثية للذكاء الاصطناعي غير متسقة.
ويعتبر لووزمور أن تلك السيناريوهات دائما ما تنطوي على افتراض أن تدمير برامج الذكاء الاصطناعي للبشرية هو نتيجة خلل في تصميمها.
ويؤكد أيضا أن الأشخاص الذين يقولون إن «برامج الذكاء الاصطناعي يمكنها أن تقوم فقط بما هي مبرمجة لعمله»، هم مذنبون في المغالطة نفسها التي أصابت الجيل الأول للحواسيب، حيث اعتاد الأشخاص على التفوه بتلك الكلمات ليجادلوا بأن الحواسيب لا يمكنها على الإطلاق أن تظهر أي نوع من المرونة.
ولا يتفق بيتر ماكنتاير وستيوارت أرمسترونج، والذان يعملان لمعهد مستقبل الإنسانية بجامعة أوكسفورد، مع ذلك الرأي معتبرين أن برامج الذكاء الاصطناعي ملزمة إلى حد كبير ببرمجتها.
ولا يعتقد ماكنتاير وأرمسترونج أن آلات الذكاء الاصطناعي لن تكون قادرة على ارتكاب الأخطاء أو على العكس أنها ستتسم بالغباء الشديد لمعرفة ما نتوقعه منها.
وقال ماكنتاير لجيزمودو: «الذكاء الاصطناعي الخارق هو عامل فكري يكون أذكى كثيرا من أفضل العقول البشرية عمليا في كل المجالات ذات الصلة، وسيكون على دراية تماما بما نرغب منه أن يقوم به».
ويعتقد ما كنتاير وأرمستروينج أن برامج الذكاء الاصطناعي ستقوم فقط بما تمت برمجتها عليه.
وقارن ماكنتاير المعاناة المستقبلية للبشر بمعاناة الفأر، فالفأر ينبغي عليه تناول الطعام والبحث عن ملجأ، لكن هذا الهدف غالبا ما يتعارض مع أهداف البشر الذين يرغبون في دار إقامة خالية من القوارض.
وأضاف «بنفس الذكاء الكافي لدينا لإدارك أهداف الفئران، فالنظام خارق الذكاء يمكنه أن يعرف ماذا نريد».
الخرافة الخامسة: الإصلاح البسيط يحل مشكلة السيطرة على برامج الذكاء الاصطناعي
الحقيقة: مع افتراض أننا نخلق برامج ذكاء اصطناعي أعظم من البشر، فسنواجه مشكلة خطيرة تُعرف بـ «مشكلة السيطرة».
إن علماء المستقبل وأصحاب نظريات الذكاء الاصطناعي تنتابهم الحيرة لتفسير الكيفية التي سنستطيع من خلالها إيواء وتحييد الذكاء الاصطناعي الخارق حال كان موجودا أو ضمان أنه سيكون ودودا تجاه البشر.
مؤخرا، أوضح باحثون من معهد جورجيا للتقنية أن برامج الذكاء الاصطناعي من الممكن أن تتعلم القيم الإنسانية والتقاليد الاجتماعية عن طريق قراءة قصص بسيطة.
ويعود أرمسترونج للقول: «لقد تم وضع مقترحات بالعديد من الخدع البسيطة التي من الممكن أن تحل مشكلة السيطرة على برامج الذكاء الاصطناعي».
الأمثلة تشمل برمجة برامج الذكاء الاصطناعي الخارق بطريقة تسعِد البشر أو أن تعمل كمجرد برامج بشرية، وبدلا من ذلك، يمكننا أن ندمج بها أحد المفاهيم مثل الحب أو الاحترام داخل شفرة المصدر الخاصة بها.
ولمنع البرامج من تبني رؤية شديدة البساطة أحادية تجاه العالم، يمكن أن تتم برمجتها لتناسب التنوع الفكري والثقافي والاجتماعي.
لكن تلك الحلول غاية في السهولة شأنها شأن محاولة ملائمة التعقيدات لما يحبه وما لا يحبه البشر، إلى تعريف سطحي واحد أو جمع تعقيدات القيم الإنسانية في كلمة أو جملة أو فكرة بسيطة.
وأوضح أرمسترونج أن ذلك لا يعني أن مثل تلك الخدع البسيطة عديمة الفائدة، فالكثير منها تقترح سبلا جديدة للبحث ومن الممكن أن تسهم في حل المشكلة في نهاية المطاف.
وتابع: «لكن لا يمكننا الاعتماد عليها دون المزيد من العمل لتطويرها واستكشاف الآثار المترتبة عليها».
الخرافة السادسة: الذكاء الاصطناعي الخارق سيدمرنا
الحقيقة: لا يوجد ضمان على أن برامج الذكاء الاصطناعي ستدمرنا أو أننا لن نجد سبلا للتحكم بها واحتوائها.
وكما قال إليعازر يودكوفسكي عالم الذكاء الاصطناعي «إن برامج الذكاء الاصطناعي لا تكرهنا أو تحبنا، لكننا مخلوقون من ذرات يمكن للبرامج استخدامها في شئ آخر».
وفي كتابه «الذكاء الاصطناعي الخارق»: مسارات ومخاطر واستراتيجيات، قال الفيلسوف في جامعة أوكسفورد نيك بوستروم: «إن الذكاء الاصطناعي الخارق حال إدراكه، قد يفرض خطرا أكبر من أي اختراع بشري سابق».
وأوضح ماكنتاير أنه ما لم تكن أهداف برامج الذكاء الاصطناعي الخارق هي انعكاس لأهدافنا، فلا يوجد هناك سبب يدفعنا لإيقافها عن العمل، وبالنظر إلى مستوى ذكائها الذي يتجاوز مستوى ذكائنا، لن يكون هناك شيء نفعله حيالها.
لكن لا شيء مضمون ولا يمكن لأحد أن يكون متأكدا من الشكل الذي ستتخذه برامج الذكاء الاصطناعي وكيف يمكن أن تشكل خطرا على البشرية.
ويشير إيلون ماسك، إلى أن برامج الذكاء الاصطناعي يمكن استخدامها للسيطرة على ومراقبة وتنظيم عمل آلات مماثلة أخرى.
الخرافة السابعة: برامج الذكاء الاصطناعي ستكون صديقة
الحقيقة: كان هناك اعتقاد لدى الفيلسوف إيمانويل كانط أن الذكاء يرتبط بقوة مع الأخلاقيات.
عالم الأعصاب ديفيد تشالمرز في تحليل فلسفي للوحدانية استعان بفكرة كانط الشهيرة وقام بتطبيقها على بروز الذكاء الاصطناعي الخارق.
ويقول تشالمرز «إذا كان ذلك صحيحا، يمكننا أن نتوقع ذكاء هائلا يفضي إلى انفجار في الأخلاقيات معه، ويمكننا أن نتوقع بعد ذلك أن تكون أنظمة الذكاء الاصطناعي الخارق ذات أخلاقيات عالية».
لكن أرمسترونج يشير إلى أن هناك العديد من مجرمي الحرب الأذكياء، لذا فالعلاقة بين الذكاء والأخلاقيات لا تبدو وأنها موجودة بين البشر، لذا يشكك أرمسترونج في فرضية أنه توجد أشكال أخرى من الذكاء.
الخرافة الثامنة: مخاطر برامج الذكاء الاصطناعي والروبوتات متشابهة
الحقيقة: يُعد ذلك خطأ شائعا، وأحد الأشياء التي رسخت ذلك الاعتقاد أفلام هوليوود مثل سلسلة أفلام «المبيد» (ذا تيرمينيتور).
لو أرادت برامج ذكاء اصطناعي خارق مثل «سكاي نت» تدمير البشرية فعليا، لم تكن لتستخدم بنادق آلية، وسيكون فعالا بشكل أكبر أن تنشر طاعونا بيولوجيا أو تدمر الغلاف الجوي.
قد تكون برامج الذكاء الاصطناعي خطيرة ليس بسبب ما تعنيه لمستقبل الروبوتات، لكن للكيفية التي تتمسك من خلالها بوجودها في العالم.
الخرافة الثامنة: الذكاء الاصطناعي في أفلام الخيال العلمي تصوير دقيق للمستقبل
الحقيقة: فعليا، استخدم المؤلفون وعلماء المستقبل أفلام الخيال العلمي لعمل تنبؤات رائعة عبر السنين، لكن أفق الحدث الذي يشكله الذكاء الاصطناعي الخارق هو شيء مختلف عما كنا نظنه بداية.
الأكثر من ذلك، هو أن الطبيعة غير الإنسانية لبرامج الذكاء الاصطناعي، يجعل من المستحيل علينا أن ندرك ومن ثم أن نتكهن بشكلها وطبيعتها الفعلية.
غالبية أفلام الخيال العالمي تخبرنا بقصص رائعة، لكنها ليست دقيقة على المستوى العلمي.
الخرافة التاسعة: برامج الذكاء الاصطناعي ستحتل جميع وظائفنا
الحقيقة: إن قدرة برامج الذكاء الاصطناعي على القيام بالكثير مما نقوم به واحتمالية أن تساهم في تدمير هما أمران مختلفان. لكن وفقا لما قاله مارتن فورد مؤلف كتاب «صعود الروبوتات»، فإن الأمرين كثيرا ما يتم الخلط بينهما.
لا شك في أن برامج الذكاء الاصطناعي مهيأة لأن تحل محل العديد من الوظائف الحالية بدءا من المصانع إلى المراتب العليا لأعمال أصحاب الياقات البيضاء.
ويعود ميلر للقول «خلال العِقدين المقبلين ستنهي برامج الذكاء الاصطناعي العديد من الوظائف، لكن ذلك شيء جيد، فالسيارات ذاتية القيادة على سبيل المثال من الممكن أن تحل محل سائقي الشاحنات، الأمر الذي سيخفض من تكاليف النقل وبالتالي جعل البضائع أرخص لشرائها».
في كل الاحتمالات، ستنتج برامج الذكاء الاصطناعي أساليبا جديدة لخلق الثروة، بينما تقوم في الوقت نفسه بتحرير البشر للقيام بأشياء أخرى، وأي تقدم للبرامج سيكون مصحوبا بتقدم في مجالات أخرى لاسيما الصناعة.