تحديات كبيرة أمام الهيئات التنظيمية لمواكبة تطورات الذكاء الاصطناعي
نيسان ـ نشر في 2024-09-06 الساعة 12:21
x
نيسان ـ تخوض الهيئات التنظيمية حول العالم، صراعاً متواصلاً لمواكبة التطور المتسارع للذكاء الاصطناعي. ورغم الجهود المبذولة، تبقى وتيرة التشريعات بطيئة، مقارنة بالوتيرة المتسارعة للابتكار.
على سبيل المثال، يعتبر قانون الذكاء الاصطناعي للاتحاد الأوروبي، أول قانون من نوعه، ويأتي في 144 صفحة، ومع ذلك، لا تزال ثمّة فجوة هائلة بين التنظيم والابتكار، ما اضطر الاتحاد الأوروبي إلى إضافة فصل كامل حول الذكاء الاصطناعي التوليدي أثناء عملية الصياغة. ويبدو أنه لم يتبقَ سوى عدد قليل من المسائل الاقتصادية والمالية والاجتماعية، لم تتأثر كثيراً بهذه التكنولوجيا المتغيرة باستمرار.
وعلى عكس النهج القائم على المبادئ، الذي اعتمده الاتحاد الأوروبي مع البيانات، بموجب اللائحة العامة لحماية البيانات (GDPR)، يتبع قانون الذكاء الاصطناعي نهج سلامة المنتج، على غرار النهج المتبع في تنظيم السيارات أو الأجهزة الطبية. ويهدف ذلك إلى تحديد المخاطر ومعالجتها، مع الالتزام بالمعايير، والتحقق منها قبل الطرح في السوق. ويمكننا النظر إلى الأمر وكأنه اختبار تصادم لطراز جديد لإحدى السيارات قبل طرحها.
ويصنف الاتحاد الأوروبي القدرات والمتطلبات اللاحقة، بناءً على مستوى المخاطر. ففي أعلى التسلسل الهرمي، نجد التطبيقات المشابهة لمسلسل «بلاك ميرور» للخيال العلمي، مثل التلاعب السلوكي والتقييم الاجتماعي، والتي يحظر استخدامها. وفي أسفل الهرم، توجد مرشحات البريد العشوائي العادية، والألعاب المدعومة بالذكاء الاصطناعي، حيث تكون صياغة مدونة طوعية كافية.
وبطبيعة الحال، سيكون للمستويين المتوسطين التأثير الأكبر في مطوري التكنولوجيا ومستخدميها. على سبيل المثال، ستندرج الخدمات المالية والشركات الأخرى التي تستخدم أدوات الذكاء الاصطناعي، لتقييم الجدارة الائتمانية، أو تعيين الموظفين ضمن هذه الفئة. بالإضافة إلى ذلك، يتحمل المستخدمون المسؤولية في الفئات الأكثر خطورة، حال تعديل النموذج: فقد تقوم الشركات بمرور الوقت بتحويل دور الذكاء الاصطناعي، من فرز السير الذاتية، إلى اتخاذ القرارات بشأن من يتم ترقيته.
وحسبما تشير ليليان إدواردز، الأستاذة بجامعة نيوكاسل، فإن إحدى النتائج المحتملة، ستكون زيادة استخدام العقود بين من ينشر الذكاء الاصطناعي وكبار مقدمي التكنولوجيا.
وتحديد ما يشكل خطراً نظامياً في الذكاء الاصطناعي التوليدي أمر صعب. ولجأ كل من الاتحاد الأوروبي والولايات المتحدة في المرسوم التنفيذي الخاص باستخدام الذكاء الاصطناعي، إلى مقاييس القدرة الحاسوبية. وحدد الاتحاد الأوروبي العتبة عند 10²⁵ من العمليات الحسابية ذات الفاصلة العائمة في الثانية، وهو مقياس لأداء الحوسبة السحابية، بينما حددت الولايات المتحدة العتبة عند 10²⁶، وتجاوز هذه العتبة يفرض التزامات إضافية.
وتكمن المشكلة في أن هذا الرقم يتعلق بالقدرة المستخدمة لتدريب نموذج الذكاء الاصطناعي، والتي قد ترتفع أو حتى تنخفض بمجرد نشره. علاوة على ذلك، يعد هذا الرقم مضللاً إلى حد ما، حيث يمكن للعديد من العوامل، بما في ذلك جودة البيانات وتسلسل التفكير المنطقي، أن تعزز الأداء، دون الحاجة إلى قدرة حسابية إضافية للتدريب. كما سيتقادم بسرعة، فما يعد رقماً كبيراً في يومنا هذا، قد يصبح شائعاً في العام المقبل.
إن قانون الاتحاد الأوروبي، الذي دخل حيز التنفيذ رسمياً، اعتباراً من أغسطس، يتم تنفيذه على مراحل. ومع تقدم القدرات، ستظهر مشاكل جديدة. وحتى مع التغييرات في اللوائح، ثمّة خطر ينطوي على استمرار عدم مواكبتها للمنحنى التكنولوجي.
على سبيل المثال، يعتبر قانون الذكاء الاصطناعي للاتحاد الأوروبي، أول قانون من نوعه، ويأتي في 144 صفحة، ومع ذلك، لا تزال ثمّة فجوة هائلة بين التنظيم والابتكار، ما اضطر الاتحاد الأوروبي إلى إضافة فصل كامل حول الذكاء الاصطناعي التوليدي أثناء عملية الصياغة. ويبدو أنه لم يتبقَ سوى عدد قليل من المسائل الاقتصادية والمالية والاجتماعية، لم تتأثر كثيراً بهذه التكنولوجيا المتغيرة باستمرار.
وعلى عكس النهج القائم على المبادئ، الذي اعتمده الاتحاد الأوروبي مع البيانات، بموجب اللائحة العامة لحماية البيانات (GDPR)، يتبع قانون الذكاء الاصطناعي نهج سلامة المنتج، على غرار النهج المتبع في تنظيم السيارات أو الأجهزة الطبية. ويهدف ذلك إلى تحديد المخاطر ومعالجتها، مع الالتزام بالمعايير، والتحقق منها قبل الطرح في السوق. ويمكننا النظر إلى الأمر وكأنه اختبار تصادم لطراز جديد لإحدى السيارات قبل طرحها.
ويصنف الاتحاد الأوروبي القدرات والمتطلبات اللاحقة، بناءً على مستوى المخاطر. ففي أعلى التسلسل الهرمي، نجد التطبيقات المشابهة لمسلسل «بلاك ميرور» للخيال العلمي، مثل التلاعب السلوكي والتقييم الاجتماعي، والتي يحظر استخدامها. وفي أسفل الهرم، توجد مرشحات البريد العشوائي العادية، والألعاب المدعومة بالذكاء الاصطناعي، حيث تكون صياغة مدونة طوعية كافية.
وبطبيعة الحال، سيكون للمستويين المتوسطين التأثير الأكبر في مطوري التكنولوجيا ومستخدميها. على سبيل المثال، ستندرج الخدمات المالية والشركات الأخرى التي تستخدم أدوات الذكاء الاصطناعي، لتقييم الجدارة الائتمانية، أو تعيين الموظفين ضمن هذه الفئة. بالإضافة إلى ذلك، يتحمل المستخدمون المسؤولية في الفئات الأكثر خطورة، حال تعديل النموذج: فقد تقوم الشركات بمرور الوقت بتحويل دور الذكاء الاصطناعي، من فرز السير الذاتية، إلى اتخاذ القرارات بشأن من يتم ترقيته.
وحسبما تشير ليليان إدواردز، الأستاذة بجامعة نيوكاسل، فإن إحدى النتائج المحتملة، ستكون زيادة استخدام العقود بين من ينشر الذكاء الاصطناعي وكبار مقدمي التكنولوجيا.
وتحديد ما يشكل خطراً نظامياً في الذكاء الاصطناعي التوليدي أمر صعب. ولجأ كل من الاتحاد الأوروبي والولايات المتحدة في المرسوم التنفيذي الخاص باستخدام الذكاء الاصطناعي، إلى مقاييس القدرة الحاسوبية. وحدد الاتحاد الأوروبي العتبة عند 10²⁵ من العمليات الحسابية ذات الفاصلة العائمة في الثانية، وهو مقياس لأداء الحوسبة السحابية، بينما حددت الولايات المتحدة العتبة عند 10²⁶، وتجاوز هذه العتبة يفرض التزامات إضافية.
وتكمن المشكلة في أن هذا الرقم يتعلق بالقدرة المستخدمة لتدريب نموذج الذكاء الاصطناعي، والتي قد ترتفع أو حتى تنخفض بمجرد نشره. علاوة على ذلك، يعد هذا الرقم مضللاً إلى حد ما، حيث يمكن للعديد من العوامل، بما في ذلك جودة البيانات وتسلسل التفكير المنطقي، أن تعزز الأداء، دون الحاجة إلى قدرة حسابية إضافية للتدريب. كما سيتقادم بسرعة، فما يعد رقماً كبيراً في يومنا هذا، قد يصبح شائعاً في العام المقبل.
إن قانون الاتحاد الأوروبي، الذي دخل حيز التنفيذ رسمياً، اعتباراً من أغسطس، يتم تنفيذه على مراحل. ومع تقدم القدرات، ستظهر مشاكل جديدة. وحتى مع التغييرات في اللوائح، ثمّة خطر ينطوي على استمرار عدم مواكبتها للمنحنى التكنولوجي.