تحدد هذه السياسة القواعد والحدود المقبولة لاستخدام أنظمة وأدوات الذكاء الاصطناعي داخل منظار القابضة وشركاتها التابعة، وكذلك الاستخدام من قِبل العملاء والشركاء الذين يتعاملون مع خدماتنا المدعومة بالذكاء الاصطناعي. تسري هذه السياسة على جميع الموظفين والمتعاقدين والاستشاريين والعملاء والأطراف الثالثة التي تستخدم أو تتفاعل مع أنظمة الذكاء الاصطناعي الخاصة بمنظار.
يُصرّح باستخدام أدوات الذكاء الاصطناعي في: تحليل البيانات وإعداد التقارير التجارية؛ أتمتة المهام الإدارية المتكررة؛ دعم اتخاذ القرار مع الإشراف البشري؛ تطوير المنتجات والخدمات ضمن إطار الحوكمة المعتمد؛ البحث والتطوير ضمن بيئات الاختبار المحمية؛ تحسين تجربة العملاء عبر أدوات المساعدة الذكية؛ إنشاء المحتوى التسويقي والتعليمي مع المراجعة البشرية الإلزامية.
يُحظر حظرًا مطلقًا: إنشاء محتوى مُضلّل أو تزييف عميق (Deepfakes) لأي غرض دون إفصاح واضح؛ استخدام الذكاء الاصطناعي في المراقبة الجماعية أو التتبع دون موافقة؛ تطوير أو نشر أسلحة ذاتية التشغيل أو أنظمة تسبب ضررًا جسديًا؛ التلاعب بالسلوك البشري بأساليب استغلالية أو خداعية؛ جمع البيانات الشخصية بما يتجاوز الأسس القانونية المحددة في نظام PDPL؛ أي استخدام يخالف الأنظمة السعودية أو القيم الإسلامية أو الآداب العامة.
تتطلب الاستخدامات التالية موافقة مسبقة من لجنة أخلاقيات الذكاء الاصطناعي: أنظمة اتخاذ القرار الآلي المؤثرة على الأفراد؛ معالجة البيانات الحساسة أو بيانات الأطفال؛ نشر نماذج توليدية في بيئات تواجه العملاء؛ دمج أنظمة ذكاء اصطناعي جديدة من أطراف ثالثة؛ نقل البيانات عبر الحدود لأغراض تدريب النماذج؛ استخدام تقنيات التعرّف على الوجه أو القياسات الحيوية.
يلتزم كل موظف يستخدم أدوات الذكاء الاصطناعي بما يلي: إتمام برنامج التدريب الإلزامي على الاستخدام المسؤول للذكاء الاصطناعي؛ مراجعة جميع المخرجات المولّدة بالذكاء الاصطناعي قبل اعتمادها أو مشاركتها خارجيًا؛ الإبلاغ عن أي سلوك غير متوقع أو مخرجات مشكوك فيها عبر قناة الإبلاغ المخصصة؛ عدم إدخال بيانات سرية أو شخصية في أدوات الذكاء الاصطناعي الخارجية دون تصريح؛ الحفاظ على سجل واضح لاستخدام الذكاء الاصطناعي في المشاريع.
يلتزم العملاء والشركاء الذين يستخدمون خدمات منظار المدعومة بالذكاء الاصطناعي بالامتناع عن: محاولة استخراج أو عكس هندسة النماذج؛ استخدام المخرجات لأغراض غير قانونية أو تمييزية؛ إعادة بيع أو ترخيص المخرجات كخدمات ذكاء اصطناعي مستقلة دون اتفاق؛ تجاوز حدود الاستخدام المحددة في عقد الخدمة.
تُصنّف جميع أنظمة الذكاء الاصطناعي وفق مستوى المخاطر: (1) حرج — أنظمة تؤثر على الصحة أو السلامة أو الحقوق الأساسية، تخضع لأعلى مستويات الرقابة؛ (2) مرتفع — أنظمة تؤثر على القرارات المالية أو التوظيف أو التقييم، تتطلب موافقة اللجنة؛ (3) متوسط — أنظمة تحسين العمليات الداخلية، تتطلب تسجيل ومراقبة؛ (4) منخفض — أدوات مساعدة عامة، تخضع لسياسات الاستخدام العادية.
عند استخدام الذكاء الاصطناعي في إنشاء المحتوى: يجب مراجعة جميع المحتوى المولّد بشريًا قبل النشر؛ يُفصح عن استخدام الذكاء الاصطناعي في المحتوى التعليمي والاستشاري المنشور؛ يُحظر نسب المحتوى المولّد بالكامل بالذكاء الاصطناعي لمؤلف بشري؛ تُطبّق معايير الجودة ذاتها المطبقة على المحتوى البشري.
يُعتبر انتهاك هذه السياسة مخالفة تأديبية قد تؤدي إلى: تنبيه رسمي مكتوب للمخالفة الأولى غير الجسيمة؛ تعليق صلاحيات الوصول لأدوات الذكاء الاصطناعي؛ إعادة التدريب الإلزامي؛ الإنهاء للمخالفات الجسيمة أو المتكررة. بالنسبة للعملاء، قد تشمل العواقب: تعليق الخدمة، أو إنهاء العقد مع الاحتفاظ بالحق في المطالبة بالتعويض.
يُشجّع جميع الأطراف على الإبلاغ عن أي استخدام يُشتبه في مخالفته لهذه السياسة عبر: البريد الإلكتروني المخصص لأخلاقيات الذكاء الاصطناعي؛ قناة الإبلاغ السري المستقلة؛ المدير المباشر أو قسم الامتثال. تُعالج جميع البلاغات بسرية تامة وتُحمى هوية المُبلّغ من أي انتقام.