باحثون يدعون إلى تعزيز معايير واختبارات نماذج الذكاء الاصطناعي
مع التوسع السريع في استخدام نماذج الذكاء الاصطناعي في مختلف المجالات، أبدى عدد من الباحثين مخاوفهم من غياب معايير واختبارات كافية لضمان سلامة هذه النماذج، خاصة مع رصد سلوكيات ضارة مثل نشر خطاب الكراهية وانتهاك حقوق النشر والباحث خافيير راندو أشار إلى أن تطوير نماذج تعلم آلي موثوقة لا يزال يمثل تحديًا كبيرًا، رغم عقود من البحث و كما لفت باحثون آخرون إلى أهمية فرق "الاختبار الأحمر" (Red Teaming) للكشف عن ثغرات محتملة قبل وقوع الأضرار.
ورغم استعانة بعض الشركات الناشئة بمقيّمين خارجيين، إلا أن خبراء مثل شاين لونغبري يرون ضرورة إشراك مستخدمين متخصصين في اختبارات الذكاء الاصطناعي لضمان تقييم دقيق.
ومن المبادرات البارزة في هذا السياق مشروع "Moonshot" في سنغافورة، الذي يدمج معايير الأداء والاختبارات الفنية والسياساتية، ويهدف إلى تقليل المخاطر الناتجة عن استخدام النماذج اللغوية الضخمة ويشدد الخبراء على أهمية وجود قواعد تنظيمية شبيهة بما هو معمول به في قطاعات مثل الدواء والطيران، لضمان استخدام آمن ومسؤول لأدوات الذكاء الاصطناعي.
يبدو أن التحدي الأكبر لا يكمن فقط في تطوير النماذج بل في وضع معايير واضحة ومشتركة لاختبارها ومراقبة سلوكها مع مرور الوقت.
ردحذفمن الواضح أن موضوع أمان نماذج الذكاء الاصطناعي أصبح محل نقاش واسع ومن الجيد أن هناك مبادرات تسعى لتقليل المخاطر المحتملة.
ردحذف