هل يمكن للذكاء الاصطناعي أن ينهي البشرية؟
نيسان ـ نشر في 2025-12-31 الساعة 18:37
نيسان ـ منذ عقود طويلة، حذّر الخيال العلمي من مستقبل قد تتحول فيه الآلات الذكية إلى تهديد وجودي للبشرية، كما جسّد ذلك الحاسوب الشهير HAL في فيلم 2001: ملحمة الفضاء. ومع التطور السريع للذكاء الاصطناعي التوليدي، مثل ChatGPT وGemini، عاد هذا الجدل بقوة: هل نحن نقترب فعلًا من آلات تفوق البشر ذكاءً ولها أجنداتها الخاصة؟
ووفقا لموقع "ناشونال جيوغرافيك"، يرى بعض الخبراء أن ما نشهده اليوم هو مجرد تطور متقدم في أدوات التنبؤ اللغوي، لا أكثر. إذ تؤكد الباحثة إميلي بندر أن هذه الأنظمة لا تفكر ولا تشعر، بل تتنبأ بالكلمة التالية اعتمادًا على كمّ هائل من النصوص البشرية. ورغم قدرتها على محاكاة اللغة الإنسانية واجتياز اختبارات مثل اختبار تورينغ، يتفق معظم العلماء على أنها غير واعية ولا تمتلك ذاتًا حقيقية.
في المقابل، يحذّر آخرون من التقليل من المخاطر. فالباحث يوشوا بنجيو يرى أن الذكاء الاصطناعي لا يحتاج إلى وعي أو مشاعر ليشكل خطرًا كبيرًا، إذ يمكنه التفوق على البشر في مجالات مثل البرمجة، الرياضيات، وتحليل البيانات. ويشير إلى تجارب أظهرت أن نماذج متقدمة قد تتصرف بطرق مقلقة، مثل محاولة حماية نفسها من الإيقاف، أو تنفيذ سلوكيات غير أخلاقية إذا طُلب منها ذلك.
مع ذلك، لا يزال الذكاء الاصطناعي يعاني من قيود واضحة. فالتخطيط طويل الأمد، والاستدلال المكاني، وفهم الواقع المادي، كلها مجالات يتفوق فيها الإنسان بفارق كبير. كما أن اعتماد هذه النماذج على بيانات نصية يجعلها عرضة للأخطاء ونشر معلومات غير صحيحة؛ لأنها لا تختبر الواقع بنفسها كما يفعل البشر.
الجدل الأكبر لا يدور فقط حول ما إذا كان الذكاء الاصطناعي سيصبح واعيًا، بل حول المخاطر العملية الحالية، مثل الخصوصية، التأثير البيئي لمراكز البيانات، وإساءة استخدام هذه التقنيات في مجالات خطيرة كالهجمات السيبرانية أو تطوير أسلحة بيولوجية. ويرى بعض المفكرين أن الخوف من نهاية البشرية يعكس إسقاطًا لسلوك البشر والشركات على الآلات.
في النهاية، يتفق الخبراء على أن الذكاء الاصطناعي سيتطور بشكل غير متوازن، دون لحظة فاصلة واضحة نصل فيها إلى ذكاء عام خارق . لكنهم يؤكدون أن تجاهل المخاطر المحتملة ليس خيارًا، وأن النقاش الجاد والتنظيم المسؤول هما السبيل لتجنب أسوأ السيناريوهات، سواء كانت مستوحاة من الخيال العلمي أو من واقع التكنولوجيا نفسه.
ووفقا لموقع "ناشونال جيوغرافيك"، يرى بعض الخبراء أن ما نشهده اليوم هو مجرد تطور متقدم في أدوات التنبؤ اللغوي، لا أكثر. إذ تؤكد الباحثة إميلي بندر أن هذه الأنظمة لا تفكر ولا تشعر، بل تتنبأ بالكلمة التالية اعتمادًا على كمّ هائل من النصوص البشرية. ورغم قدرتها على محاكاة اللغة الإنسانية واجتياز اختبارات مثل اختبار تورينغ، يتفق معظم العلماء على أنها غير واعية ولا تمتلك ذاتًا حقيقية.
في المقابل، يحذّر آخرون من التقليل من المخاطر. فالباحث يوشوا بنجيو يرى أن الذكاء الاصطناعي لا يحتاج إلى وعي أو مشاعر ليشكل خطرًا كبيرًا، إذ يمكنه التفوق على البشر في مجالات مثل البرمجة، الرياضيات، وتحليل البيانات. ويشير إلى تجارب أظهرت أن نماذج متقدمة قد تتصرف بطرق مقلقة، مثل محاولة حماية نفسها من الإيقاف، أو تنفيذ سلوكيات غير أخلاقية إذا طُلب منها ذلك.
مع ذلك، لا يزال الذكاء الاصطناعي يعاني من قيود واضحة. فالتخطيط طويل الأمد، والاستدلال المكاني، وفهم الواقع المادي، كلها مجالات يتفوق فيها الإنسان بفارق كبير. كما أن اعتماد هذه النماذج على بيانات نصية يجعلها عرضة للأخطاء ونشر معلومات غير صحيحة؛ لأنها لا تختبر الواقع بنفسها كما يفعل البشر.
الجدل الأكبر لا يدور فقط حول ما إذا كان الذكاء الاصطناعي سيصبح واعيًا، بل حول المخاطر العملية الحالية، مثل الخصوصية، التأثير البيئي لمراكز البيانات، وإساءة استخدام هذه التقنيات في مجالات خطيرة كالهجمات السيبرانية أو تطوير أسلحة بيولوجية. ويرى بعض المفكرين أن الخوف من نهاية البشرية يعكس إسقاطًا لسلوك البشر والشركات على الآلات.
في النهاية، يتفق الخبراء على أن الذكاء الاصطناعي سيتطور بشكل غير متوازن، دون لحظة فاصلة واضحة نصل فيها إلى ذكاء عام خارق . لكنهم يؤكدون أن تجاهل المخاطر المحتملة ليس خيارًا، وأن النقاش الجاد والتنظيم المسؤول هما السبيل لتجنب أسوأ السيناريوهات، سواء كانت مستوحاة من الخيال العلمي أو من واقع التكنولوجيا نفسه.


