عندما صاغ عالم الحاسوب جون مكارثي مصطلح الذكاء الصناعي في العام 1956، وعرَّفه بنفسه بأنه “علم وهندسة صنع الآلات الذكية”، فعل ذلك على افتراض أن مَلَكة الذكاء يمكن وصفها بدقة بدرجة تمكن الآلة من محاكاتها. وهذا يثير جدلاً فلسفياً حول طبيعة وقدرة العقل البشري وحدود المناهج العلمية، وهي قضايا تناولتها نقاشات كثيرة، ولا تزال تناقش حتى يومنا هذا، فهل سنصل يوماً ما الى أن يكون الروبوت قادراً على قيادة السيارة الخاصة بك وإيصالك إلى المكان الذي تريد، أو أخذ أطفالك في نزهة قصيرة بالسيارة، هل ستعد الدول الاستعمارية الكبرى جيوشاً حديثة من الروبوتات كي لا يكون هناك خسائر بشرية من شعوبها؟ وهل سيكون هناك روبوتات مبرمجة على اعمال الشر (سرقة، ضرب، حرق وتخريب)؟ ومن سيضبط ذلك في ما لو انفلت الذكاء الصناعي، والسؤال الأدق هل سيتغلب الذكاء الصناعي على العقل البشري؟
يعرف الذكاء البشري بأنه القدرة العقلية على التحليل، والتخطيط، وحل المشاكل، ورسم الإستنتاجات، وسرعة المحاكاة العقلية، كما يشمل القدرة على التفكير المجرد، وجمع وتنسيق الأفكار، والتقاط اللغات، وسرعة التعلم. فيما يعرف الذكاء الصناعي على انه سلوك وخصائص معينة تتسم بها البرامج الحاسوبية تجعلها تحاكي القدرات الذهنية البشرية وأنماط عملها. من أهم هذه الخاصيات القدرة على التعلم والاستنتاج ورد الفعل على أوضاع لم تبرمج في الآلة.
وكما يختلف البشر بامكانياتهم العقلية ودرجة ذكائهم، كذلك تختلف الآلات بدرجات تطور البرامج الذكية لديها، وكيفية محاكاة الآلة للمشاكل التي امامها، وقد تطورت هذه البرامج لدرجة انه اصبح هناك إنسان آلي يضحك ويبكي، ويحل أعقد المسائل ولكن بلا أحاسيس ولا مشاعر.
المخاوف من المستقبل
صمم اليابانيون الروبوت Robear الذي يعد الأول من نوعه على شكل “دب” في مركز لتقديم الرعاية التمريضية للمحتاجين لها، خصوصاً لناحية رفع المرضى من أسرّتهم ووضعهم على الكراسي المتحركة. ومساعدة الأشخاص الذين يحتاجون إلى المساعدة على الوقوف. هنا، تبدو فكرة الشرّ المرتبطة بهذا الروبوت ضئيلة جداً بالنسبة لمن قاموا بتطويره. ولكن العلماء الذين صمموا هذا الروبوت يستطيعون تصميم روبوتات نسبة الشر لديها أكبر بكثير، وهنا تكمن المخاوف التي تحدث عنها البعض بجدية.
ازدادت مخاوف الكثيرمن العلماء من أن يتسبب الذكاء الصناعي بنهايتنا، فكان العالم الفيزيائي البريطاني الشهير ستيفن هوكينغ أول المتخوفين حيث أظهر مخاوفه في مقابلة أجرتها معه شبكة “بي بي سي” البريطانية عام 2014 وقال يومها: “إن تطوير ذكاء صناعي كامل قد يمهد لنهاية الجنس البشري”. وأضاف “الآلات التي يمكن أن تفكر تشكل خطراً على جوهر وجودنا، وأن تطوير ذكاء اصطناعي كامل قد يمهد لنهاية الجنس البشري”. وحذّر هوكينغ من أن البشرية لا تأخذ الأمر بجدية كافية، قائلاً: “يعتمد تأثير الذكاء الصناعي القصير الأمد على كيفية التحكم به، أمّا على المدى البعيد فيعتمد على ما إذا كان من الممكن التحكم به بشكل كامل”. وأضاف: “ينبغي لنا أن نتساءل جميعاً عما يمكننا أن نفعله لتحسين فرص حصد الفوائد وثمار الذكاء الصناعي وتجنب مخاطره”.
كما أعرب بيل غيتس في مقابلة معه على موقع “ريديت” Reddit عن رغبته في بقاء الروبوتات غبية إلى حد ما. وقال: “أنا من الفريق الذي يشعر بالقلق إزاء الذكاء الخارق”. وأضاف غيتس “بعد بضعة عقود سيكون الذكاء الصناعي قويا بما يكفي ليكون مصدرا للقلق. وأنا أتفق مع إيلون ماسك وغيره آخرين حول هذا الموضوع، ولا أفهم لماذا لا يبدي بعض الناس قلقهم حيال ذلك”.
ويشعر أستاذ هندسة الميكانيك وعلوم الفضاء في “جامعة كورنيل”، وأحد مطوري الروبوتات الذكية، هود ليبسون، بالمخاوف ذاتها، حيث قال إن “تقنيات الذكاء الصناعي أصبحت قوية للغاية، ومن المحتمل أن تتجاوز قدرات الإنسان”. وتوقّع حدوث ذلك خلال القرن القادم، حيث يعتقد أن دمج تقنيات الذكاء الصناعي مع الروبوتات قد يتسبب بظهور آليات خطيرة، لكنه رفض القول إنها قد تتسبب بدمار البشرية، وإنما على العكس تماما حيث يمكن تطويعها لصالح البشرية، على غرار الطاقة النووية التي يمكن استخدامها في الخير أو في الشر.
ولكن الأكثر تخوفاً، وأحد أشد المنتقدين لدخول التكنولوجيا بيوتنا وحياتنا اليومية بهذا الشكل، هو Elon Musk الذي حذّر من أن الروبوتات القاتلة باتت أقرب لنا ممّا نتصور. وأن الروبوتات غير المتحكم بها ستبدأ بمهاجمتنا ومحاربتنا في وقت قريب، كما أنه يرى أن الذكاء الصناعي هو أكبر خطر على الجنس البشري. صحيح أن الرجل قد يكون مبالغاً في كلامه إلى حد ما، لكنه ليس مخطئاً في قلقه، فتصنيع الآلة الذكية قد وصل الى حد مخيف، فهي في يومنا هذا تسمع وترى وتتكلم وتلمس وتضحك وتبكي وتتحكم بنفسها، ربما لا نعرف مدى قدرتنا على التحكم في شيطان الآلة إذا ما انقلتت مستقبلاً.
هل سيهزم الذكاء الصناعي البشر؟ يبقى الجواب على هذا السؤال رهناً بتطور الآلة وكيفية توجيهها ومدى العمق الانساني لدى المشرفين عليها.