تُنشئ هذه السياسة المنهجية المنظمة لتحديد وتقييم والتعامل مع ومراقبة المخاطر المرتبطة بأنظمة الذكاء الاصطناعي عبر منظومة منظار القابضة. تسري على جميع أنظمة الذكاء الاصطناعي — سواء المطوّرة داخليًا أو المكتسبة من أطراف ثالثة — طوال دورة حياتها بالكامل.
نُصنّف مخاطر الذكاء الاصطناعي ضمن ست فئات: (1) مخاطر النموذج — أخطاء في التنبؤ، انحراف الأداء، هلوسات؛ (2) مخاطر البيانات — تحيّز البيانات، تسرّب البيانات، جودة البيانات؛ (3) مخاطر تشغيلية — أعطال النظام، فشل التكامل، فقدان الكفاءات؛ (4) مخاطر السمعة — مخرجات مسيئة، فقدان ثقة العملاء؛ (5) مخاطر قانونية وتنظيمية — مخالفة الأنظمة، مسؤولية قانونية؛ (6) مخاطر أخلاقية — تمييز، انتهاك خصوصية، ضرر مجتمعي.
يُقيّم كل خطر وفق محورين: الاحتمالية (نادر، محتمل، مرجّح، شبه مؤكد) والأثر (محدود، متوسط، جسيم، كارثي). الناتج يحدد مستوى الخطورة: حرج (يتطلب تصعيد فوري وإجراء عاجل)، مرتفع (يتطلب خطة معالجة خلال 48 ساعة)، متوسط (يتطلب معالجة خلال 30 يومًا)، منخفض (يُسجّل ويُراقب).
قبل نشر أي نظام ذكاء اصطناعي، يُجرى تقييم شامل يتضمن: تحديد حالات الاستخدام والمتأثرين؛ تحليل بيانات التدريب من حيث الجودة والتحيّز والتمثيل؛ اختبار أداء النموذج عبر سيناريوهات متنوعة بما فيها الحالات الحدّية؛ تقييم الأثر على الخصوصية (DPIA) عند معالجة بيانات شخصية؛ مراجعة التوافق التنظيمي؛ توثيق المخاطر المتبقية وخطط التخفيف.
تشمل ضوابط التخفيف المعتمدة: الضوابط التقنية — اختبار الخصومة، مراقبة الانحراف، آليات الإيقاف الطارئ، تشفير البيانات؛ الضوابط الإجرائية — مراجعة بشرية إلزامية للقرارات عالية الأثر، فصل المهام، بروتوكولات التصعيد؛ الضوابط التنظيمية — سياسات واضحة، تدريب، مساءلة؛ الضوابط التعاقدية — شروط المسؤولية مع الموردين والعملاء.
بعد النشر، تخضع جميع الأنظمة لمراقبة مستمرة تشمل: مؤشرات أداء النموذج (دقة، استدعاء، معدل الخطأ)؛ مؤشرات التحيّز عبر الفئات السكانية؛ معدلات الأعطال والحوادث؛ ملاحظات المستخدمين والشكاوى؛ التغيرات في البيئة التشغيلية أو التنظيمية. تُعرض لوحة مؤشرات المراقبة على المسؤول الأول للذكاء الاصطناعي أسبوعيًا.
عند تحقق أي خطر: المستوى الحرج — إخطار فوري للرئيس التنفيذي ومجلس الإدارة، تفعيل بروتوكول الاستجابة للحوادث، النظر في الإيقاف الفوري؛ المستوى المرتفع — إخطار لجنة الأخلاقيات والمسؤول الأول خلال 4 ساعات؛ المستوى المتوسط — إخطار المسؤول الأول خلال 24 ساعة؛ المستوى المنخفض — تسجيل وعرض في التقرير الدوري.
نحتفظ بمكتبة سيناريوهات مرجعية تُحدّث سنويًا تشمل: انحراف كبير في أداء النموذج يؤثر على قرارات تجارية؛ تسرّب بيانات تدريب تحتوي معلومات شخصية؛ مخرجات تمييزية تؤثر على فئة محمية؛ هجوم خصومي ناجح على نموذج منشور؛ فشل نظام ذكاء اصطناعي حرج في وقت الذروة. لكل سيناريو خطة استجابة معتمدة.
تتوافق هذه السياسة مع: إطار NIST لإدارة مخاطر الذكاء الاصطناعي (AI RMF 1.0)؛ معيار ISO/IEC 23894 لإدارة مخاطر الذكاء الاصطناعي؛ إطار حوكمة المخاطر الصادر عن سدايا؛ ضوابط الهيئة الوطنية للأمن السيبراني. تُراجع التوافقية عند صدور تحديثات لهذه الأطر.
تُراجع مصفوفة المخاطر وخطط التخفيف كل ستة أشهر أو عند حدوث تغيير جوهري في الأنظمة أو البيئة التنظيمية. تُجرى تمارين محاكاة المخاطر سنويًا لاختبار جاهزية الاستجابة. تُرفع نتائج المراجعة للجنة أخلاقيات الذكاء الاصطناعي ومجلس الإدارة.