في عام 1989، تنبأ عالم السياسة الأمريكي فرانسيس فوكوياما بأننا على أعتاب "نهاية التاريخ"، حيث ستسود القيم الديمقراطية الليبرالية العالم. ولكن، بعد أكثر من ثلاثة عقود، لم تتحقق هذه التوقعات بالكامل. ومع ذلك، يبدو أننا نقترب من "نهاية" من نوع آخر، تتمحور حول الذكاء الاصطناعي.
توجد عدة سيناريوهات قد تؤدي إلى نهاية البشرية، مثل جائحة عالمية، أو نيزك عملاق، أو كارثة مناخية. إلا أن هناك تهديدًا آخر بدأ يلوح في الأفق: الذكاء الاصطناعي. هذا التطور التكنولوجي، الذي كان يُنظر إليه في البداية كأداة لتحسين الحياة، أصبح اليوم مصدر قلق وخوف.
الذكاء الاصطناعي: بين التفاؤل والخطر الوجودي
يشبه خطر الذكاء الاصطناعي تغير المناخ؛ فكلاهما يتطور ببطء لكنه يحمل تهديدات وجودية. يخشى العلماء أن يتجاوز الذكاء الاصطناعي القدرات البشرية، ليصبح قادرًا على اتخاذ قرارات مصيرية دون تدخل الإنسان. هذا السيناريو، الذي كان يُعتبر خيالًا علميًا في الماضي، بات اليوم موضوعًا جادًا للنقاش بين الخبراء وصناع القرار.
على سبيل المثال، صرّح سام ألتمان، الرئيس التنفيذي لشركة OpenAI، في عام 2022، أن الذكاء الاصطناعي يمتلك إمكانات هائلة لدرجة تجعل الحديث عنها يبدو جنونيًا. لكنه في الوقت نفسه حذر من أن هذا التطور قد يؤدي إلى "انطفاء الأضواء علينا جميعًا".
أما جيفري هينتون، الأب الروحي للذكاء الاصطناعي والحائز على جائزة نوبل في الفيزياء لعام 2024، فقد زاد من المخاوف في ديسمبر 2024 عندما قال إن هناك احتمالًا يتراوح بين 10% و20% أن يؤدي الذكاء الاصطناعي إلى انقراض البشرية خلال الثلاثين عامًا القادمة. هذه التوقعات المثيرة للقلق جعلت الكثيرين يتساءلون: إلى أي مدى يجب أن نقلق؟ وما الذي يمكننا فعله لتفادي هذه المخاطر؟
تحذيرات مبكرة من تفوق الذكاء الاصطناعي
منذ عقود، حذر العلماء من مخاطر الذكاء الاصطناعي. آلان تورينج، رائد علم الذكاء الاصطناعي، تنبأ في عام 1950 بأن الآلات، بمجرد أن تتعلم من التجربة، ستتفوق على البشر. كما حذر مارفن مينسكي، أحد مؤسسي هذا المجال، في السبعينيات من أن الذكاء الاصطناعي الفائق قد يصبح خارج نطاق سيطرتنا.
إيرفينغ جود، عالم الرياضيات الذي عمل مع تورينج خلال الحرب العالمية الثانية، صاغ مفهوم "انفجار الذكاء" (Intelligence Explosion)، حيث تصبح الآلات ذكية بما يكفي لتحسين نفسها دون تدخل بشري، وهو ما يُعرف اليوم باسم "التفرد التكنولوجي" (Singularity).
متى قد يتجاوز الذكاء الاصطناعي الذكاء البشري؟
يبقى السؤال الأهم: متى سيحدث هذا التفوق؟ لا توجد إجابة قاطعة، لكن التقدم السريع في نماذج الذكاء الاصطناعي، مثل GPT وGemini، يجعل هذا السيناريو أقرب مما كنا نظن.
وفقًا لبعض التوقعات:
- يعتقد إيلون ماسك أن الذكاء الاصطناعي سيتفوق على البشر بحلول عام 2026.
- يتوقع داريو أمودي، الرئيس التنفيذي لشركة Anthropic، أن يحدث ذلك بين 2026 و2027.
- يحدد شين ليج، المؤسس المشارك لجوجل ديب مايند، عام 2028 لهذه اللحظة.
- يرى جنسن هوانج، الرئيس التنفيذي لإنفيديا، أنها ستحدث في 2029.
لكن هناك من يعتقد أن هذا التفوق سيستغرق وقتًا أطول، مثل يان لوكون، كبير علماء الذكاء الاصطناعي في ميتا، الذي يرى أن الأمر قد يستغرق عقودًا. بينما يعتقد جاري ماركوس، البروفيسور الفخري بجامعة نيويورك، أن الأمر قد يحدث بعد 10 أو حتى 100 عام.
لماذا قد يتفوق الذكاء الاصطناعي على البشر؟
هناك عدة أسباب تجعل الذكاء الاصطناعي يتفوق على الذكاء البشري:
- السرعة: الحواسيب تعالج المعلومات أسرع بملايين المرات من الدماغ البشري.
- الذاكرة: لا ينسى الذكاء الاصطناعي المعلومات، على عكس البشر.
- التخصص: في مجالات مثل الشطرنج والطب والتنبؤ الجوي، يتفوق الذكاء الاصطناعي بالفعل.
لكن السؤال الأكبر هو: كيف يمكن أن يشكل ذلك خطرًا علينا؟
السيناريوهات المحتملة لسيطرة الذكاء الاصطناعي
- تدمير البنية التحتية: قد يستغل الذكاء الاصطناعي نقاط ضعف شبكات الطاقة والأنظمة المالية.
- تصميم أوبئة قاتلة: يمكنه تطوير فيروسات بيولوجية شديدة الخطورة.
- الآلات النانوية ذاتية التكاثر: قد يبتكر روبوتات مجهرية قادرة على التدمير الذاتي للإنسان.
هل يمكننا تجنب هذا السيناريو؟
اليوم، تتخذ الحكومات خطوات لتنظيم الذكاء الاصطناعي. الاتحاد الأوروبي يقود جهودًا لوضع ضوابط صارمة، في حين لا تزال دول مثل الولايات المتحدة مترددة بين التنظيم والتسريع. ومع ذلك، فإن الحوافز الاقتصادية والجيوسياسية قد تجعل بعض الدول تتجاهل المخاطر المحتملة.
لذلك، يرى العلماء أنه لا بد من التعاون الدولي لوضع قوانين صارمة تمنع إساءة استخدام هذه التقنية، وإلا فقد نجد أنفسنا أمام مستقبل لم نكن مستعدين له، وربما لا ننجو منه.
لا يتم نشر التعاليق إلى بعد مراجعتها من طرف الإدارة، لا نقبل السب والشتم أو الكلام الجارح، التعاليق أسفل كل مقالة تعبر عن صاحبها، صديقي الزائر إذا رأيت اي تعليق غير مناسب، المرجوا إبلاغنا عن طريق صفحة إتصل بنا للموقع.