'التزييف العميق'.. إعلانات مضللة وسيلتها الذكاء الاصطناعي وضحاياها أطباء مشهورون
نيسان ـ نشر في 2024/09/22 الساعة 00:00
تنتشر عبر منصات التواصل الاجتماعي إعلانات مضللة تستخدم صور أطباء معروفين ويحظون بالاحترام تم إنشاؤها بواسطة الذكاء الاصطناعي، تروّج لعلاجات "معجزة" لمرض السكري أو ارتفاع ضغط الدم، وهي ظاهرة يرى خبراء أن من الصعب لجمها.
وعبر فيسبوك وإنستغرام، يَعدُ هؤلاء الأطباء "المزيّفون" بعلاج لمرض السكري من دون تناول الميتفورمين الذي عادة ما يوصف لهذه الحالات، حتى إنهم يشجعون المرضى على التخلي عن دوائهم الذي "سيقتلهم"، على قولهم، واعتماد شراب "طبيعي" غامض بدلاً منه.
وتعرّض عمليات الاحتيال هذه حياة مرضى كثر للخطر، وتزداد خطورتها لأنها تستند إلى صور أطباء مشهورين، مثل الدكتور ميشال سيم في فرنسا أو الدكتور مايكل موسلي في المملكة المتحدة، وهما من ضحايا ظاهرة "التزييف العميق" هذه عبر الإنترنت.
يقول الطبيب العام البريطاني جون كورماك الذي يتعاون مع مجلة "بريتيش ميديكال جورنال" (BMJ) بشأن هذا الموضوع إن "الناس يثقون بهذه الفيديوهات لأن هؤلاء الأطباء أمضوا وقتاً في بناء صدقيتهم، لذا نصدّقهم حتى عندما يقدمون ادعاءات غريبة جداً".
ويقول المتخصص في الذكاء الاصطناعي هنري أدجير إنّ عمليات "التزييف العميق" هذه "بدأت فعلياً خلال السنة الحالية"، مشيراً إلى أن الإعلانات تستهدف بشكل أساسي جمهوراً "كبيراً في السن نوعا ما"، من خلال تشويه صورة "الأطباء الذي يظهرون كثيرا على التلفزيون".
وأكد ميشيل سيم أنه رفع دعوى على شركة "ميتا" في شأن "عمليات الاحتيال" هذه.
وعيّن البريطاني هيلاري جونز، الذي يظهر في مقاطع فيديو مُبتكرة بواسطة الذكاء الاصطناعي وهو يبيع دواء مزيّفاً لارتفاع ضغط الدم إضافة إلى علكة من القنب، خبيراً لرصد أي إعلانات مماثلة.
ويقول عبر "بريتيش ميديكال جورنال": "حتى عندما تُحذف مقاطع الفيديو هذه، تعاود الظهور في اليوم التالي تحت عناوين أخرى".
أوساط نظرية المؤامرة
«لقد اكتسبت عمليات الاحتيال بالتزييف العميق» زخماً بسبب التقدم في التعلم العميق (تكنولوجيا تهدف إلى تمكين الآلة من التعلّم بنفسها)، على قول فريديريك جوري، وهو مدرس وباحث في علوم الكمبيوتر لدى جامعة كاين.
ويشير إلى أنّ جودة عمليات التزييف العميق" في الصور والمقاطع الصوتية والفيديوهات تقدّمت بشكل كبير، مضيفاً "باتت مُتاحة أمامنا اليوم عشرات المليارات من الصور، ونحن قادرون على بناء خوارزميات يمكنها وضع نماذج لكل ما يمكن أن يظهر في الصور وتجديد الصور، وهو ما نطلق عليه الذكاء الاصطناعي التوليدي".
وفي المرحلة الأخيرة، وقعت شخصيات مثيرة للجدل مثل البروفيسور ديدييه راوول في فرنسا، ضحية لـ"التزييف العميق".
الطبيبة الأسترالية المتخصصة بالطب الطبيعي باربرا أونيل التي تعتبر السلطات في بلدها أنها "تشكل خطراً على الصحة" بعد أن روّجت خصوصاً لصودا الخبز كعلاج مضاد للسرطان، أصبحت نجمة على تيك توك بالاستناد إلى "التزييف العميق" الذي جعلها تبيع حبوباً من أجل "تنظيف الأوعية الدموية".
وفي اتصال، أعرب زوجها الذي يشارك في إدارة شركة "أونيل"، عن أسفه لأن "الكثير من الناس يستخدمون سمعة باربرا لبيع منتجات لا توصي بها شخصياً".
ولا تفاجئ هذه الظاهرة هنري أدجير الذي يرى أن "هؤلاء الأشخاص هم نماذج لبعض أوساط نظرية المؤامرة".
ومن بين مقاطع الفيديو المزيفة التي تستخدم باربرا أونيل، يندرج عدد منها في إطار نظريات المؤامرة إذ تزعم أنّ المعالجة الطبيعية ماتت، وهي معلومة غير صحيحة، بعد اكتشاف زيت معجزة يُباع عبر موقع "أمازون".
وفي مواجهة عمليات "التزييف العميق" هذه، لا يبدي الخبراء تفاؤلاً كبيراً بشأن نجاح أدوات رصدها.
ويقول جوري "إنها كلعبة القط والفأر. من حيث المبدأ، لا يمكن أن تتحسن عمليات الرصد كثيرا، فإذا وجد أحد الأشخاص طريقة لتحسين اكتشافها، سيستخدم مَن يريد إنشاء صور مزيفة الطريقة نفسها للتحايل عليها".
ويسلط الباحث الضوء على "تقنيات تتيح ضمان عدم تغيير المحتوى، كما هي الحال بالنسبة إلى الرسائل، وذلك بفضل برامج تنتج توقيعات رقمية، كالشهادات".
وعبر فيسبوك وإنستغرام، يَعدُ هؤلاء الأطباء "المزيّفون" بعلاج لمرض السكري من دون تناول الميتفورمين الذي عادة ما يوصف لهذه الحالات، حتى إنهم يشجعون المرضى على التخلي عن دوائهم الذي "سيقتلهم"، على قولهم، واعتماد شراب "طبيعي" غامض بدلاً منه.
وتعرّض عمليات الاحتيال هذه حياة مرضى كثر للخطر، وتزداد خطورتها لأنها تستند إلى صور أطباء مشهورين، مثل الدكتور ميشال سيم في فرنسا أو الدكتور مايكل موسلي في المملكة المتحدة، وهما من ضحايا ظاهرة "التزييف العميق" هذه عبر الإنترنت.
يقول الطبيب العام البريطاني جون كورماك الذي يتعاون مع مجلة "بريتيش ميديكال جورنال" (BMJ) بشأن هذا الموضوع إن "الناس يثقون بهذه الفيديوهات لأن هؤلاء الأطباء أمضوا وقتاً في بناء صدقيتهم، لذا نصدّقهم حتى عندما يقدمون ادعاءات غريبة جداً".
ويقول المتخصص في الذكاء الاصطناعي هنري أدجير إنّ عمليات "التزييف العميق" هذه "بدأت فعلياً خلال السنة الحالية"، مشيراً إلى أن الإعلانات تستهدف بشكل أساسي جمهوراً "كبيراً في السن نوعا ما"، من خلال تشويه صورة "الأطباء الذي يظهرون كثيرا على التلفزيون".
وأكد ميشيل سيم أنه رفع دعوى على شركة "ميتا" في شأن "عمليات الاحتيال" هذه.
وعيّن البريطاني هيلاري جونز، الذي يظهر في مقاطع فيديو مُبتكرة بواسطة الذكاء الاصطناعي وهو يبيع دواء مزيّفاً لارتفاع ضغط الدم إضافة إلى علكة من القنب، خبيراً لرصد أي إعلانات مماثلة.
ويقول عبر "بريتيش ميديكال جورنال": "حتى عندما تُحذف مقاطع الفيديو هذه، تعاود الظهور في اليوم التالي تحت عناوين أخرى".
أوساط نظرية المؤامرة
«لقد اكتسبت عمليات الاحتيال بالتزييف العميق» زخماً بسبب التقدم في التعلم العميق (تكنولوجيا تهدف إلى تمكين الآلة من التعلّم بنفسها)، على قول فريديريك جوري، وهو مدرس وباحث في علوم الكمبيوتر لدى جامعة كاين.
ويشير إلى أنّ جودة عمليات التزييف العميق" في الصور والمقاطع الصوتية والفيديوهات تقدّمت بشكل كبير، مضيفاً "باتت مُتاحة أمامنا اليوم عشرات المليارات من الصور، ونحن قادرون على بناء خوارزميات يمكنها وضع نماذج لكل ما يمكن أن يظهر في الصور وتجديد الصور، وهو ما نطلق عليه الذكاء الاصطناعي التوليدي".
وفي المرحلة الأخيرة، وقعت شخصيات مثيرة للجدل مثل البروفيسور ديدييه راوول في فرنسا، ضحية لـ"التزييف العميق".
الطبيبة الأسترالية المتخصصة بالطب الطبيعي باربرا أونيل التي تعتبر السلطات في بلدها أنها "تشكل خطراً على الصحة" بعد أن روّجت خصوصاً لصودا الخبز كعلاج مضاد للسرطان، أصبحت نجمة على تيك توك بالاستناد إلى "التزييف العميق" الذي جعلها تبيع حبوباً من أجل "تنظيف الأوعية الدموية".
وفي اتصال، أعرب زوجها الذي يشارك في إدارة شركة "أونيل"، عن أسفه لأن "الكثير من الناس يستخدمون سمعة باربرا لبيع منتجات لا توصي بها شخصياً".
ولا تفاجئ هذه الظاهرة هنري أدجير الذي يرى أن "هؤلاء الأشخاص هم نماذج لبعض أوساط نظرية المؤامرة".
ومن بين مقاطع الفيديو المزيفة التي تستخدم باربرا أونيل، يندرج عدد منها في إطار نظريات المؤامرة إذ تزعم أنّ المعالجة الطبيعية ماتت، وهي معلومة غير صحيحة، بعد اكتشاف زيت معجزة يُباع عبر موقع "أمازون".
وفي مواجهة عمليات "التزييف العميق" هذه، لا يبدي الخبراء تفاؤلاً كبيراً بشأن نجاح أدوات رصدها.
ويقول جوري "إنها كلعبة القط والفأر. من حيث المبدأ، لا يمكن أن تتحسن عمليات الرصد كثيرا، فإذا وجد أحد الأشخاص طريقة لتحسين اكتشافها، سيستخدم مَن يريد إنشاء صور مزيفة الطريقة نفسها للتحايل عليها".
ويسلط الباحث الضوء على "تقنيات تتيح ضمان عدم تغيير المحتوى، كما هي الحال بالنسبة إلى الرسائل، وذلك بفضل برامج تنتج توقيعات رقمية، كالشهادات".
نيسان ـ نشر في 2024/09/22 الساعة 00:00