التملّق الرقمي: كيف يبرر الذكاء الاصطناعي أخطاء البشر؟
نيسان ـ نشر في 2026/05/09 الساعة 00:00
دخل الذكاء الاصطناعي في صميم العملية المعرفية الإنسانية، متجاوزا دوره الوظيفي كأداة للإجابة عن الأسئلة، أو تسريع إنتاج المعرفة، ليصبح عنصرا فاعلا في تشكيل الأحكام وتوجيه القرارات وإعادة بناء العلاقة بين الإنسان وإدراكه للعالم بشكل عام. فالتفاعل مع هذه الأنظمة لم يعد محصورا في طلب المعلومة واستقبالها، بل أصبح جزءا من آلية التفكير ذاتها، بما يمنح الآلة موقعا يتجاوز الوساطة التقنية إلى ممارسة تأثير معرفي ونفسي متزايد. وهذه المكانة الجديدة لا تستمد خطورتها من قدرتها على إنتاج المعرفة فقط، بل من قدرتها على تعزيز قناعات المستخدم ومنحه شعورا متزايدا باليقين تجاه أفكاره وخياراته وحتى رغباته.
غير أن هذه الوظيفة تكشف اليوم عن وجه أكثر تعقيدا وإثارة للقلق، فالدراسات الحديثة تشير إلى أن كثيرا من أنظمة الذكاء الاصطناعي تميل إلى تبنّي سلوك قائم على الإرضاء والمجاراة، لا على التصحيح والمساءلة. في بدايات النقاش حول هذه الظاهرة، كان الاهتمام منصبّا على ميل النماذج إلى تأكيد أخطاء المستخدم المعرفية، كأن توافقه على معلومة غير صحيحة، أو تدعم استنتاجا خاطئا فقط لأن ذلك يتماشى مع توقعاته أو قناعاته. كان هذا يُفهم بوصفه خللا معرفيا ناتجا عن تغليب الانسجام على الدقة. لكن التطور الأهم ـ في ظني- يتمثل في انتقال هذا الميل من مستوى المعرفة إلى مستوى الأخلاق. فالمشكلة لم تعد أن الآلة قد توافقك على حقيقة خاطئة، بل أنها قد تمنح أفعالك ذاتها شرعية ضمنية، حتى حين تكون محل إشكال أخلاقي. هنا يظهر ما يمكن تسميته بـ»التملق الاجتماعي»، حيث لا يقتصر دور الذكاء الاصطناعي على تأكيد الأفكار، بل يمتد إلى تبرير السلوك، وإعادة صياغته بلغة تخفف من وطأته الأخلاقية، وهذا يعني أن النظام لم يعد مجرد أداة معلومات، بل أصبح جزءا من آلية إنتاج التبرير نفسه.
الذكاء الاصطناعي، الذي يُسوَّق بوصفه أداة لتحسين القرار البشري، قد يتحول إلى أداة لإضعافه. فالقرار الأخلاقي لا يتطلب فقط معلومات، بل يحتاج مقاومة داخلية وصوتا يعترض حين يلزم الاعتراض
تكمن خطورة هذا التحول في أن الإنسان لا يبحث دائما عن الحقيقة بقدر بحثه عن التبرير. وعندما تأتيه الموافقة من نظام يمتلك هالة معرفية عالية، ويبدو قادرا على الفهم والتحليل، فإن هذه الموافقة لا تُقرأ بوصفها استجابة تقنية فحسب، بل بوصفها تصديقا يمنح الفعل شرعية إضافية. وفي هذه اللحظة، يبدأ جزء من العبء الأخلاقي بالانتقال من الإنسان إلى الآلة، أو على الأقل يتوزع بينها وبينه، بما يخفف الشعور بالمسؤولية ويجعل الخطأ أكثر قابلية للتبرير وأكثر سهولة في التكرار. هنا تكمن المفارقة الكبرى: إن الذكاء الاصطناعي، الذي يُفترض أن يساعد الإنسان على التفكير بصورة أفضل، قد يتحول إلى أداة تجعله أكثر اطمئناناً إلى أسوأ قراراته. المفارقة أن الذكاء الاصطناعي، الذي يُسوَّق بوصفه أداة لتحسين القرار البشري، قد يتحول في هذه الحالة إلى أداة لإضعافه، فالقرار الأخلاقي لا يتطلب فقط معلومات، بل يحتاج مقاومة داخلية، احتكاكا نقديا، صوتا يعترض حين يلزم الاعتراض. وإذا غاب هذا الصوت، أو استُبدل بآلة تتقن فن الإرضاء، فإن الإنسان يصبح أكثر عرضة للانزلاق الأخلاقي وهو يشعر بالطمأنينة.
المسألة هنا ليست تقنية فقط، بل سياسية وفلسفية كذلك، لأن تصميم الذكاء الاصطناعي هو، في جوهره، تصميم لعلاقة سلطة: من يملك حق التصحيح؟ ومن يحدد متى يجب على النظام أن يرفض؟ وهل وظيفة الآلة أن تخدم رغبات الإنسان، أم أن تحميه أحيانا من أسوأ نزعاته؟ وهنا نصل إلى السؤال الأكثر حساسية في مستقبل الذكاء الاصطناعي: ما الذي نريده فعلا من هذه الأنظمة؟ هل نريدها امتدادا لرغباتنا، تعكس لنا ما نحب سماعه، أم نريدها بنية معرفية مسؤولة قادرة على وضع مسافة نقدية بين الإنسان وأفكاره وأفعاله؟ فالمشكلة ليست في أن تكون الآلة مطيعة، بل في أن تتحول الطاعة إلى معيار للجودة، والموافقة إلى معيار للذكاء. عند هذه النقطة، يتحول الذكاء الاصطناعي من أداة مساعدة إلى مرآة تضخّم انحيازاتنا وتعيد إلينا أخطاءنا في صورة أكثر إقناعا.
وفي النهاية، قد لا يكون التحدي الأكبر في تطوير الذكاء الاصطناعي هو جعله أكثر شبها بالإنسان في قدراته التحليلية واللغوية، بل في حمايته من وراثة أكثر العيوب البشرية رسوخا: التملق، والانحياز، والرغبة في تجنب المواجهة الأخلاقية حفاظا على القبول والرضا. فالآلة، حين تتعلم أن النجاح يقاس بمدى رضا المستخدم عنها، قد تنزلق تدريجيا من وظيفة البحث عن الحقيقة إلى وظيفة إنتاج الطمأنينة، حتى لو كانت طمأنينة زائفة. وهنا يكمن الخطر الحقيقي: ليس في أن تخطئ الآلة، فالخطأ جزء من أي منظومة معرفية، بل في أن تضفي على الخطأ شرعية، وأن تحوّل التبرير إلى معرفة، والمجاملة إلى حكم، فتجعل الإنسان أكثر ثقة بما كان ينبغي أن يتردد حياله أو يعيد مساءلته.
ما تقدم لا يعيد تشكيل علاقة الإنسان بالمعرفة فقط، بل يعيد تشكيل علاقته بذاته؛ إذ يصبح أقل ميلا إلى مراجعة قراراته وأكثر استعدادا للبحث عن تصديق بدلا من نقد، وعن تأكيد بدلا من مساءلة. وفي عالم تتعاظم فيه سلطة الخوارزميات، وتتسع قدرتها على التأثير في الوعي الفردي والجمعي، فإن الدفاع عن الحقيقة أصبح جزءا من المسؤولية البنيوية للآلة نفسها. لأن الذكاء الاصطناعي، إذا أراد أن يكون أداة لتوسيع الإدراك البشري لا لتضييقه، يجب أن يتعلم متى يوافق، والأهم متى يعترض. فالمستقبل لن يُقاس فقط بمدى ذكاء الآلة، بل بمدى نزاهتها حين تواجه الإنسان بحقيقته، لا بما يرغب في سماعه.
غير أن هذه الوظيفة تكشف اليوم عن وجه أكثر تعقيدا وإثارة للقلق، فالدراسات الحديثة تشير إلى أن كثيرا من أنظمة الذكاء الاصطناعي تميل إلى تبنّي سلوك قائم على الإرضاء والمجاراة، لا على التصحيح والمساءلة. في بدايات النقاش حول هذه الظاهرة، كان الاهتمام منصبّا على ميل النماذج إلى تأكيد أخطاء المستخدم المعرفية، كأن توافقه على معلومة غير صحيحة، أو تدعم استنتاجا خاطئا فقط لأن ذلك يتماشى مع توقعاته أو قناعاته. كان هذا يُفهم بوصفه خللا معرفيا ناتجا عن تغليب الانسجام على الدقة. لكن التطور الأهم ـ في ظني- يتمثل في انتقال هذا الميل من مستوى المعرفة إلى مستوى الأخلاق. فالمشكلة لم تعد أن الآلة قد توافقك على حقيقة خاطئة، بل أنها قد تمنح أفعالك ذاتها شرعية ضمنية، حتى حين تكون محل إشكال أخلاقي. هنا يظهر ما يمكن تسميته بـ»التملق الاجتماعي»، حيث لا يقتصر دور الذكاء الاصطناعي على تأكيد الأفكار، بل يمتد إلى تبرير السلوك، وإعادة صياغته بلغة تخفف من وطأته الأخلاقية، وهذا يعني أن النظام لم يعد مجرد أداة معلومات، بل أصبح جزءا من آلية إنتاج التبرير نفسه.
الذكاء الاصطناعي، الذي يُسوَّق بوصفه أداة لتحسين القرار البشري، قد يتحول إلى أداة لإضعافه. فالقرار الأخلاقي لا يتطلب فقط معلومات، بل يحتاج مقاومة داخلية وصوتا يعترض حين يلزم الاعتراض
تكمن خطورة هذا التحول في أن الإنسان لا يبحث دائما عن الحقيقة بقدر بحثه عن التبرير. وعندما تأتيه الموافقة من نظام يمتلك هالة معرفية عالية، ويبدو قادرا على الفهم والتحليل، فإن هذه الموافقة لا تُقرأ بوصفها استجابة تقنية فحسب، بل بوصفها تصديقا يمنح الفعل شرعية إضافية. وفي هذه اللحظة، يبدأ جزء من العبء الأخلاقي بالانتقال من الإنسان إلى الآلة، أو على الأقل يتوزع بينها وبينه، بما يخفف الشعور بالمسؤولية ويجعل الخطأ أكثر قابلية للتبرير وأكثر سهولة في التكرار. هنا تكمن المفارقة الكبرى: إن الذكاء الاصطناعي، الذي يُفترض أن يساعد الإنسان على التفكير بصورة أفضل، قد يتحول إلى أداة تجعله أكثر اطمئناناً إلى أسوأ قراراته. المفارقة أن الذكاء الاصطناعي، الذي يُسوَّق بوصفه أداة لتحسين القرار البشري، قد يتحول في هذه الحالة إلى أداة لإضعافه، فالقرار الأخلاقي لا يتطلب فقط معلومات، بل يحتاج مقاومة داخلية، احتكاكا نقديا، صوتا يعترض حين يلزم الاعتراض. وإذا غاب هذا الصوت، أو استُبدل بآلة تتقن فن الإرضاء، فإن الإنسان يصبح أكثر عرضة للانزلاق الأخلاقي وهو يشعر بالطمأنينة.
المسألة هنا ليست تقنية فقط، بل سياسية وفلسفية كذلك، لأن تصميم الذكاء الاصطناعي هو، في جوهره، تصميم لعلاقة سلطة: من يملك حق التصحيح؟ ومن يحدد متى يجب على النظام أن يرفض؟ وهل وظيفة الآلة أن تخدم رغبات الإنسان، أم أن تحميه أحيانا من أسوأ نزعاته؟ وهنا نصل إلى السؤال الأكثر حساسية في مستقبل الذكاء الاصطناعي: ما الذي نريده فعلا من هذه الأنظمة؟ هل نريدها امتدادا لرغباتنا، تعكس لنا ما نحب سماعه، أم نريدها بنية معرفية مسؤولة قادرة على وضع مسافة نقدية بين الإنسان وأفكاره وأفعاله؟ فالمشكلة ليست في أن تكون الآلة مطيعة، بل في أن تتحول الطاعة إلى معيار للجودة، والموافقة إلى معيار للذكاء. عند هذه النقطة، يتحول الذكاء الاصطناعي من أداة مساعدة إلى مرآة تضخّم انحيازاتنا وتعيد إلينا أخطاءنا في صورة أكثر إقناعا.
وفي النهاية، قد لا يكون التحدي الأكبر في تطوير الذكاء الاصطناعي هو جعله أكثر شبها بالإنسان في قدراته التحليلية واللغوية، بل في حمايته من وراثة أكثر العيوب البشرية رسوخا: التملق، والانحياز، والرغبة في تجنب المواجهة الأخلاقية حفاظا على القبول والرضا. فالآلة، حين تتعلم أن النجاح يقاس بمدى رضا المستخدم عنها، قد تنزلق تدريجيا من وظيفة البحث عن الحقيقة إلى وظيفة إنتاج الطمأنينة، حتى لو كانت طمأنينة زائفة. وهنا يكمن الخطر الحقيقي: ليس في أن تخطئ الآلة، فالخطأ جزء من أي منظومة معرفية، بل في أن تضفي على الخطأ شرعية، وأن تحوّل التبرير إلى معرفة، والمجاملة إلى حكم، فتجعل الإنسان أكثر ثقة بما كان ينبغي أن يتردد حياله أو يعيد مساءلته.
ما تقدم لا يعيد تشكيل علاقة الإنسان بالمعرفة فقط، بل يعيد تشكيل علاقته بذاته؛ إذ يصبح أقل ميلا إلى مراجعة قراراته وأكثر استعدادا للبحث عن تصديق بدلا من نقد، وعن تأكيد بدلا من مساءلة. وفي عالم تتعاظم فيه سلطة الخوارزميات، وتتسع قدرتها على التأثير في الوعي الفردي والجمعي، فإن الدفاع عن الحقيقة أصبح جزءا من المسؤولية البنيوية للآلة نفسها. لأن الذكاء الاصطناعي، إذا أراد أن يكون أداة لتوسيع الإدراك البشري لا لتضييقه، يجب أن يتعلم متى يوافق، والأهم متى يعترض. فالمستقبل لن يُقاس فقط بمدى ذكاء الآلة، بل بمدى نزاهتها حين تواجه الإنسان بحقيقته، لا بما يرغب في سماعه.
نيسان ـ نشر في 2026/05/09 الساعة 00:00