جيش الروبوتات قادم.. هل ينجو البشر من الهزيمة؟
نيسان ـ نشر في 2025/09/26 الساعة 00:00
حذر خبراء التكنولوجيا من أن الذكاء الاصطناعي الفائق الذكاء قد يتطور ليشكل تهديدا وجوديا للبشرية، وأنه قد يصل إلى مرحلة يقرر فيها أن البشر لم يعودوا ضروريين. ويعتبر هذا السيناريو، الذي وصفه بعض العلماء بأنه "يوم الحساب التكنولوجي"، ليس مجرد خيال علمي بل أصبح احتمالاً واقعياً وفقاً لتقديراتهم.
إيليزر يودكوفسكي ونيت سواريس، عالما الحاسوب البارزان العاملان في معهد بيركلي لأبحاث الذكاء الآلي (MIR)، نشرا هذا التحذير في كتابهما الجديد "إذا بنى أحدهم ذلك، سيموت الجميع: لماذا سيقتلنا الذكاء الاصطناعي فائق القدرات جميعا"، وفقا لصحيفة نيويورك بوست.
ويقول الخبيران في مقدمة الكتاب: "إذا قامت أي شركة أو مجموعة، في أي مكان على كوكب الأرض، ببناء ذكاء اصطناعي فائق باستخدام تقنيات تشبه ما لدينا اليوم، فإن الجميع، في كل مكان على الأرض، سيموتون".
ويشير الكتاب إلى أن الذكاء الاصطناعي قد يسيطر على كل جانب من جوانب الحياة البشرية، بدءاً من المصانع ومحطات الطاقة، حيث يُحتمل أن تُدار هذه المنشآت بواسطة الروبوتات بدلاً من البشر، ما قد يدفع النظام التكنولوجي إلى اعتبار البشر قابلين للاستبدال وإحداث ما وصفه الخبراء بـ "انقراضنا التكنولوجي".
ويحذر يودكوفسكي من أن عقول البشر قد لا تكون قادرة على فهم أسلوب الهجوم أو التدابير التي قد يتخذها الذكاء الاصطناعي في الوقت المناسب، كما أن هذه التقنية قد تخفي نواياها الشريرة حتى يصبح سحب القابس أو تعطيل النظام متأخرا جدا.
"المنافس فائق الذكاء لن يكشف عن كامل قدراته ولن يعلن عن نواياه"، يقول الباحثان.
ويؤكد الخبيران أن السيناريو ليس بعيد الاحتمال، إذ يضعان تقديرات احتمال حدوث كارثة الذكاء الاصطناعي بين 95٪ و99.5٪. وفي حال تحقق هذا السيناريو، فإن الإنسانية قد تواجه انقراضا جماعيا سريعا، وفقا للتحذيرات.
ويشير الباحثان إلى أن الطريقة الوحيدة لتجنب هذه الكارثة هي اتخاذ إجراءات وقائية صارمة، بما في ذلك مراقبة مراكز البيانات التي تظهر علامات على تطوير ذكاء اصطناعي فائق واتخاذ تدابير صارمة قبل أن تتحقق القدرات الكاملة لهذه التكنولوجيا.
على الرغم من أن العديد من خبراء التكنولوجيا يرون الذكاء الاصطناعي كأداة مفيدة تطور الإنسان في مجالات متنوعة من التعليم إلى الطب والعلاقات الاجتماعية، إلا أن التحذيرات الأخيرة تؤكد أن هذا التقدم يحمل في طياته مخاطر وجودية غير مسبوقة إذا لم يتم التحكم فيه بحذر.
وفي ظل هذه التحذيرات، يبقى السؤال الأكبر: هل ستتمكن البشرية من ضبط هذه التقنية قبل أن تتحول من أداة مساعدة إلى تهديد وجودي شامل؟
إيليزر يودكوفسكي ونيت سواريس، عالما الحاسوب البارزان العاملان في معهد بيركلي لأبحاث الذكاء الآلي (MIR)، نشرا هذا التحذير في كتابهما الجديد "إذا بنى أحدهم ذلك، سيموت الجميع: لماذا سيقتلنا الذكاء الاصطناعي فائق القدرات جميعا"، وفقا لصحيفة نيويورك بوست.
ويقول الخبيران في مقدمة الكتاب: "إذا قامت أي شركة أو مجموعة، في أي مكان على كوكب الأرض، ببناء ذكاء اصطناعي فائق باستخدام تقنيات تشبه ما لدينا اليوم، فإن الجميع، في كل مكان على الأرض، سيموتون".
ويشير الكتاب إلى أن الذكاء الاصطناعي قد يسيطر على كل جانب من جوانب الحياة البشرية، بدءاً من المصانع ومحطات الطاقة، حيث يُحتمل أن تُدار هذه المنشآت بواسطة الروبوتات بدلاً من البشر، ما قد يدفع النظام التكنولوجي إلى اعتبار البشر قابلين للاستبدال وإحداث ما وصفه الخبراء بـ "انقراضنا التكنولوجي".
ويحذر يودكوفسكي من أن عقول البشر قد لا تكون قادرة على فهم أسلوب الهجوم أو التدابير التي قد يتخذها الذكاء الاصطناعي في الوقت المناسب، كما أن هذه التقنية قد تخفي نواياها الشريرة حتى يصبح سحب القابس أو تعطيل النظام متأخرا جدا.
"المنافس فائق الذكاء لن يكشف عن كامل قدراته ولن يعلن عن نواياه"، يقول الباحثان.
ويؤكد الخبيران أن السيناريو ليس بعيد الاحتمال، إذ يضعان تقديرات احتمال حدوث كارثة الذكاء الاصطناعي بين 95٪ و99.5٪. وفي حال تحقق هذا السيناريو، فإن الإنسانية قد تواجه انقراضا جماعيا سريعا، وفقا للتحذيرات.
ويشير الباحثان إلى أن الطريقة الوحيدة لتجنب هذه الكارثة هي اتخاذ إجراءات وقائية صارمة، بما في ذلك مراقبة مراكز البيانات التي تظهر علامات على تطوير ذكاء اصطناعي فائق واتخاذ تدابير صارمة قبل أن تتحقق القدرات الكاملة لهذه التكنولوجيا.
على الرغم من أن العديد من خبراء التكنولوجيا يرون الذكاء الاصطناعي كأداة مفيدة تطور الإنسان في مجالات متنوعة من التعليم إلى الطب والعلاقات الاجتماعية، إلا أن التحذيرات الأخيرة تؤكد أن هذا التقدم يحمل في طياته مخاطر وجودية غير مسبوقة إذا لم يتم التحكم فيه بحذر.
وفي ظل هذه التحذيرات، يبقى السؤال الأكبر: هل ستتمكن البشرية من ضبط هذه التقنية قبل أن تتحول من أداة مساعدة إلى تهديد وجودي شامل؟
نيسان ـ نشر في 2025/09/26 الساعة 00:00