اتصل بنا
 

دراسة تحذر من خطر يهدد بياناتك على 'شات جي بي تي'

نيسان ـ نشر في 2026-01-08 الساعة 17:22

دراسة تحذر من خطر يهدد بياناتك
نيسان ـ حذرت دراسة أعدتها شركة «سيفتي ديتكتيفز» من خطورة تشارك اليبانات الشخصية على منصة «تشات جي بي تي»، حيث يتشارك المستخدمون معلومات شخصية قابلة للتعريف، وإفصاحات عاطفية حساسة، ومواد سرية.
ويقوم بعض المستخدمين بمشاركة سيرهم الذاتية كاملة، وأفكار انتحارية، ونقاشات حول التخطيط الأسري، وخطاب تمييزي مع نموذج الذكاء الاصطناعي.
وتشكّل «الاستشارات المهنية» ما يقرب من 60% من الموضوعات التي جرى الإبلاغ عنها.
وكشف تسريب آلاف محادثات «تشات جي بي تي» في أغسطس/آب 2025 عن واقعين مقلقين. الأول أن المستخدمين ليسوا على دراية كاملة بكيفية تعامل نموذج الذكاء الاصطناعي مع بياناتهم وتوزيعها. والثاني أنالناسيبدو أنهم يضعون مستوى عالياً من الثقة في مساعديهم المعتمدين على الذكاء الاصطناعي — وقد أدى ذلك إلى جعل العديد من محادثاتهم متاحة للعموم.
وجاءت المشكلة نتيجة ميزة أُزيلت لاحقاً، كانت تتيح للمستخدمين عند مشاركة المحادثات خيار «جعل المحادثة قابلة للاكتشاف». ورغم أن خيار الاشتراك هذا كان يوضح صراحة أن تفعيله «يسمح بعرض المحادثة في عمليات البحث على الويب»، فإنه ربما ليس جميع المستخدمين فهموا تماماً ما يعنيه ذلك: أي أن محادثاتهم ستُزحف وتُفهرس من قبل محركات البحث، وتصبح متاحة لمستخدمين آخرين.
حقائق مقلقة
ولم يبين اكتشاف عدد لا يُحصى من محادثات «تشات جي بي تي» المفهرسة علناً فقط وجود خلل في تجربة المستخدم لنموذج الذكاء الاصطناعي، والذي أوجد بلا داعٍ فرصاً أكبر لوقوع الخطأ البشري، بل سلّط أيضاً الضوء على بعض الحقائق المقلقة بشأن استخدام روبوتات الدردشة المعتمدة على الذكاء الاصطناعي.
وعلى وجه التحديد، قام فريق البحث بتنزيل وتحليل 1,000 جلسة من هذه الجلسات المسرَّبة، تمتد لأكثر من 43 مليون كلمة، لفهم كيفية استخدامالناسلـ«تشات جي بي تي». وكانت النتائج صادمة: إذ يتشارك المستخدمون بشكل روتيني معلومات خاصة وحساسة، بل وحتى محفوفة بالمخاطر، مع الذكاء الاصطناعي.
وحدّد البحث 20 فئة يمكن تصنيفها على أنها حساسة، إما بسبب الكشف عن تفاصيل شخصية خاصة، وإما لطبيعة الموضوعات الدقيقة التي قد تُعد مُرهِقة على الصعيدين الذهني أو العاطفي أو النفسي. ولم تكن جميع المحادثات الألف التي جرى مشاركتها متساوية في الطول. فالمحادثات التي لا تتجاوز 500 كلمة هي الأكثر شيوعاً، إذ تشكّل نحو ثلث مجموعة البيانات. ومع ذلك، عندما تحدث محادثات طويلة جداً، فإنها تكون بالفعل جلسات ماراثونية حقيقية — وليست مجرد أطول بقليل من المتوسط. فلم تتجاوز 50 ألف كلمة سوى 4 محادثات فقط من أصل 1,000، وكانت أطول محادثة مسجّلة تضم 116,024 كلمة!
مناقشة موضوعات شديدة الخصوصية
ودقّت الرابطة الوطنية للمدّعين العامّين في الولايات المتحدة بالفعل ناقوس الخطر بشأن تفاقم حالات «التشهير الرقمي»، مع صعود تقنيات الذكاء الاصطناعي. فعلى سبيل المثال، أثارت ميزة البحث العكسي عن المواقع من خلال الصور في «تشات جي بي تي»، وميزة التعرّف إلى الوجوه المدعومة بالذكاء الاصطناعي في نظارات «ميتا» الذكية، مخاوف كبيرة تتعلق بالخصوصية.
ومع استمرار تطوّر الذكاء الاصطناعي بما يجعل من الأسهل باستمرار تحديد هويات الأفراد والوصول إلى تفاصيلهم الشخصية خلال دقائق قليلة، فإن إدخال المعلومات الشخصية طوعاً في نماذج الذكاء الاصطناعي لا يؤدي إلا إلى زيادة الهشاشة والتعرّض للمخاطر. وضمن المحادثات التي درسها فريق البحث، وجد عدد من الدردشات التي ذكرت صراحة معلومات شخصية قابلة للتعريف مثل الأسماء الكاملة، والعناوين، وأرقام الهويات.
ونصحت الشركة المستخدمين بتوخي الحذر الشديد عند التعامل مع روبوتات الدردشة وغيرها من منصات الذكاء الاصطناعي التي لا توفر إفصاحات أو ضمانات واضحة بشأن الخصوصية. يجب عدم مشاركة المعلومات الشخصية الحساسة وغيرها من المعلومات الحساسة مع هذه الخدمات، إذ لم تُوضع بعد لوائح واضحة وصارمة لحماية المستخدمين، في ما يتعلق باستخدام الذكاء الاصطناعي.

كما رصد عدة إشارات إلى موضوعات مثل الانتحار، والتطرّف، ومشكلاتالصحةالنفسية، كالقَلَق والإدمان والاكتئاب. بل إن نظرة سريعة على منتدى «تشات جي بي تي» (على موقع ريديت) تُظهر كماً هائلاً من التأييد لاستخدام نموذج الذكاء الاصطناعي بديلاً عن العلاج النفسي المتخصص.
لكن هنا تكمن المشكلة — فـ«تشات جي بي تي» غير مُدرَّب ليكون معالجاً نفسياً، كما أن ردوده و«منظوره» يعتمدان إلى حدّ كبير على طريقة صياغة المستخدم لطلبه. وهذا يعني أن الأشخاص الذين يكونون في حالات ذهنية شديدة الهشاشة قد لا يمتلكون القدرة، في تلك اللحظة، على كتابة مطالب واضحة أو وضع حدود مناسبة، أثناء التفاعل مع روبوت الدردشة.

نيسان ـ نشر في 2026-01-08 الساعة 17:22

الكلمات الأكثر بحثاً