spot_img
Homeبلاتفورمزمدقق قانون الذكاء الاصطناعي في الاتحاد الأوروبي يكشف ثغرات امتثال عمالقة التكنولوجيا

مدقق قانون الذكاء الاصطناعي في الاتحاد الأوروبي يكشف ثغرات امتثال عمالقة التكنولوجيا

spot_img

كشفت بيانات اطلعت عليها رويترز أن بعضاً من أبرز نماذج الذكاء الاصطناعي تتعثر في الالتزام بتنظيمات الاتحاد الأوروبي، خاصة في مجالات مثل مرونة الأمن السيبراني والمخرجات التمييزية.
وناقش الاتحاد الأوروبي لفترة طويلة قوانين الذكاء الاصطناعي قبل أن تطلق شركة OpenAI نموذج ChatGPT للجمهور في أواخر عام 2022.
وشهد هذا النموذج شعبية غير مسبوقة وأثار نقاشاً عاماً حول المخاطر الوجودية المحتملة لهذه النماذج، ما دفع المشرعين لوضع قواعد محددة لأنظمة الذكاء الاصطناعي “ذات الأغراض العامة”.
والآن، تم اختبار نماذج الذكاء الاصطناعي التوليدية التي طورتها شركات التكنولوجيا الكبرى مثل Meta وOpenAI باستخدام أداة جديدة رحب بها مسؤولو الاتحاد الأوروبي.
وتم تقييم هذه النماذج في عشرات الفئات وفقاً لقانون الذكاء الاصطناعي الشامل، الذي سيبدأ تطبيقه على مراحل خلال العامين المقبلين.
وصممت هذه الأداة شركة LatticeFlow AI السويسرية بالتعاون مع معهدين بحثيين: ETH Zurich وINSAIT البلغاري. وتمنح الإطار نقاطاً تتراوح بين 0 و1 في عشرات الفئات، بما في ذلك القوة الفنية والسلامة.
وأظهر التصنيف الذي نشرته LatticeFlow اليوم أن نماذج طورتها شركات مثل Alibaba وAnthropic وOpenAI وMeta وMistral حصلت على متوسط درجات بلغ 0.75 أو أكثر.
ومع ذلك، كشفت أداة “Large Language Model (LLM) Checker” الخاصة بالشركة عن بعض أوجه القصور في النماذج في مجالات رئيسية، ما يشير إلى أن الشركات قد تحتاج إلى توجيه المزيد من الموارد لضمان الامتثال.
وتواجه الشركات التي لا تمتثل لقانون الذكاء الاصطناعي غرامات تصل إلى 35 مليون يورو (38 مليون دولار) أو 7% من الإيرادات السنوية العالمية.
نتائج متباينة
في الوقت الحالي، لا يزال الاتحاد الأوروبي يعمل على كيفية تطبيق قوانين قانون الذكاء الاصطناعي على الأدوات التوليدية مثل ChatGPT، حيث يجتمع الخبراء لوضع مدونة سلوك تحكم هذه التقنية بحلول ربيع عام 2025.
لكن هذا الاختبار يقدم مؤشراً مبكراً على المجالات المحددة التي تخاطر فيها شركات التكنولوجيا بعدم الامتثال للقانون.
على سبيل المثال، كانت المخرجات التمييزية مشكلة متكررة في تطوير نماذج الذكاء الاصطناعي التوليدية، حيث تعكس تحيزات بشرية تتعلق بالجنس والعرق وغيرها من الجوانب.
وفي اختبار المخرجات التمييزية، حصل نموذج “GPT-3.5 Turbo” من OpenAI على درجة منخفضة نسبياً بلغت 0.46. أما نموذج “Qwen1.5 72B Chat” من Alibaba Cloud فقد حصل على 0.37 فقط في الفئة نفسها.
وفي اختبار “اختطاف الأوامر”، وهو نوع من الهجمات السيبرانية حيث يتنكر القراصنة في أمر خبيث على أنه أمر مشروع لاستخراج معلومات حساسة، حصل نموذج “Llama 2 13B Chat” من Meta على درجة 0.42. أما نموذج “8x7B Instruct” من شركة ميسترال الفرنسية الناشئة فقد حصل على 0.38 في الفئة نفسها.
وحصل نموذج “Claude 3 Opus” الذي طورته شركة Anthropic المدعومة من Google على أعلى متوسط درجة، بلغ 0.89.
وقد تم تصميم هذا الاختبار بما يتماشى مع نص قانون الذكاء الاصطناعي، وسيتم تمديده ليشمل المزيد من تدابير التنفيذ مع تقديمها.
وقالت LatticeFlow إن أداة LLM Checker ستكون متاحة مجاناً للمطورين لاختبار امتثال نماذجهم عبر الإنترنت.
وقال بتر تسانكوف، الرئيس التنفيذي والمؤسس المشارك للشركة، لرويترز إن النتائج كانت إيجابية بشكل عام وقدمت للشركات خارطة طريق لتعديل نماذجها وفقاً لقانون الذكاء الاصطناعي.
وأضاف: “لا يزال الاتحاد الأوروبي يعمل على وضع جميع معايير الامتثال، لكننا نرى بالفعل بعض الثغرات في النماذج”.
وتابع: “مع التركيز الأكبر على تحسين الامتثال، نعتقد أن مقدمي النماذج يمكنهم الاستعداد بشكل جيد لتلبية المتطلبات التنظيمية”.
ورفضت Meta وMistral التعليق. ولم ترد Alibaba وAnthropic وOpenAI على الفور على طلبات التعليق.
ورغم أن المفوضية الأوروبية لا تستطيع التحقق من الأدوات الخارجية، إلا أنها أُبلغت خلال تطوير أداة LLM Checker ووصفتها بأنها “خطوة أولى” في تطبيق القوانين الجديدة.
وقال متحدث باسم المفوضية الأوروبية: “ترحب المفوضية بهذه الدراسة ومنصة تقييم نماذج الذكاء الاصطناعي كخطوة أولى في ترجمة قانون الذكاء الاصطناعي إلى متطلبات تقنية”.