يُنشئ هذا الإطار الهيكل المؤسسي والعمليات والسياسات اللازمة لحوكمة الذكاء الاصطناعي بفعالية عبر منظومة منظار القابضة. يضمن الإطار أن تطوير ونشر واستخدام الذكاء الاصطناعي يتم بشكل مسؤول وأخلاقي ومتوافق مع الأنظمة السعودية والمعايير الدولية. يهدف إلى تحقيق التوازن بين تعزيز الابتكار وإدارة المخاطر بشكل استباقي.
يتحمل مجلس إدارة منظار القابضة المسؤولية النهائية عن حوكمة الذكاء الاصطناعي. يُعيّن المجلس عضوًا مسؤولًا عن الذكاء الاصطناعي يُشرف على استراتيجية المجموعة في هذا المجال ويرفع تقارير ربع سنوية. يُقرّ المجلس الميثاق الأخلاقي وسياسات الحوكمة الرئيسية ويوافق على نشر أنظمة الذكاء الاصطناعي المصنّفة "حرجة".
تُشكّل لجنة متعددة التخصصات تضم ممثلين من: التقنية والهندسة، والشؤون القانونية والامتثال، وإدارة المخاطر، والعمليات التجارية، وخبراء خارجيين مستقلين. تجتمع اللجنة شهريًا وتُصدر قراراتها بالأغلبية. مهامها: مراجعة طلبات نشر الأنظمة عالية المخاطر، والبت في الحالات الأخلاقية المعقدة، ورصد الامتثال للسياسات، وتحديث الأطر عند تطور التقنية أو التنظيمات.
يتولى المسؤول الأول للذكاء الاصطناعي (Chief AI Officer) مسؤولية التنفيذ اليومي لإطار الحوكمة: إعداد سجل أنظمة الذكاء الاصطناعي وصيانته، والإشراف على تقييمات الأثر قبل النشر، وتنسيق عمليات التدقيق الدورية، والتواصل مع الجهات التنظيمية، ورفع التقارير للجنة ومجلس الإدارة.
تُوزّع صلاحيات القرار وفق مستوى مخاطر النظام: المستوى الحرج — يتطلب موافقة مجلس الإدارة بناءً على توصية اللجنة؛ المستوى المرتفع — يتطلب موافقة لجنة الأخلاقيات؛ المستوى المتوسط — يتطلب موافقة المسؤول الأول للذكاء الاصطناعي؛ المستوى المنخفض — يُفوّض لمديري الأقسام ضمن السياسات المعتمدة.
تخضع كل مرحلة من دورة حياة نموذج الذكاء الاصطناعي لضوابط حوكمة محددة: (1) التصميم — تقييم الأثر الأخلاقي والتنظيمي؛ (2) التطوير والتدريب — معايير جودة البيانات وفحص التحيّز؛ (3) الاختبار والتحقق — بروتوكولات اختبار شاملة مع معايير قبول واضحة؛ (4) النشر — مراجعة نهائية وتوثيق؛ (5) المراقبة — مؤشرات أداء وسلوك مستمرة؛ (6) الإيقاف — بروتوكول آمن لإيقاف النماذج مع حفظ السجلات.
تحتفظ منظار القابضة بسجل مركزي لجميع أنظمة الذكاء الاصطناعي المنشورة يتضمن: اسم النظام والغرض منه، ومالكه التقني والتنفيذي، وتصنيف المخاطر، وبيانات التدريب المستخدمة، ونتائج تقييمات التحيّز، وتاريخ النشر والمراجعات، والحوادث المسجّلة. يُحدّث السجل باستمرار ويخضع لتدقيق سنوي.
قبل دمج أي نظام ذكاء اصطناعي من طرف ثالث: يُجرى تقييم العناية الواجبة يشمل فحص سياسات المورّد الأخلاقية والأمنية؛ يُصنّف النظام ضمن مصفوفة المخاطر المعتمدة؛ تُدرج شروط الحوكمة والمسؤولية في العقود؛ يُراقب أداء النظام دوريًا؛ يُضمن حق التدقيق في اتفاقيات الخدمة.
يتوافق هذا الإطار مع: إطار حوكمة الذكاء الاصطناعي الصادر عن هيئة البيانات والذكاء الاصطناعي (سدايا)؛ ضوابط الأمن السيبراني الصادرة عن الهيئة الوطنية للأمن السيبراني؛ المعيار الدولي ISO/IEC 42001 لنظام إدارة الذكاء الاصطناعي؛ إطار NIST لإدارة مخاطر الذكاء الاصطناعي؛ مبادئ قانون الذكاء الاصطناعي الأوروبي (كمرجع لأفضل الممارسات).
تُجرى عمليات تدقيق شاملة لحوكمة الذكاء الاصطناعي مرتين سنويًا على الأقل. تشمل: مراجعة فعالية الضوابط والسياسات، وتقييم الحوادث المسجّلة والدروس المستفادة، وقياس مؤشرات الامتثال، ومقارنة الممارسات مع أفضل الممارسات العالمية. تُرفع نتائج التدقيق للجنة ومجلس الإدارة مع توصيات التحسين.
أي تعديل جوهري على أنظمة الذكاء الاصطناعي المنشورة — سواء في النموذج أو بيانات التدريب أو نطاق الاستخدام — يخضع لعملية إدارة تغيير رسمية تتضمن: تقييم أثر التغيير، وموافقة الجهة المختصة وفق مصفوفة الصلاحيات، واختبار ما قبل النشر، وتحديث التوثيق والسجل.