«سدايا»:-تنظيم-شامل-للذكاء-الاصطناعي-وتصنيف-للمخاطر-حتى-الحظر-النهائي

«سدايا»: تنظيم شامل للذكاء الاصطناعي وتصنيف للمخاطر حتى الحظر النهائي

أطلقت الهيئة السعودية للبيانات والذكاء الاصطناعي «سدايا»، المسودة الأولى لـ «سياسة الذكاء الاصطناعي المسؤول»، لتنظيم الابتكار التقني عبر تصنيف المخاطر وفرض رقابة صارمة، مستهدفة كافة القطاعات لخلق توازن بين تبني التقنية وحماية المجتمع.

وكشفت الهيئة عن حزمة تنظيمات شاملة تسري على القطاعات الحكومية والخاصة وغير الربحية والأفراد، بهدف ضبط دورة حياة تطوير واستخدام الأنظمة الذكية داخل المملكة العربية السعودية.

وأوضحت «سدايا» أن السياسة الجديدة تسعى لتحقيق توازن دقيق بين تسريع وتيرة تبني التقنيات الحديثة وتحقيق المنفعة التنموية، وبين إرساء تدابير وضوابط حماية أساسية تحد من الأضرار المحتملة.

المبادئ الأخلاقية

وبيّنت المسودة الاستطلاعية أن الإطار التنظيمي يرتكز على سبعة مبادئ أخلاقية، تتصدرها «النزاهة والإنصاف»، لضمان خلو الخوارزميات من التحيز أو التمييز ضد الأفراد منذ مرحلة تدريب البيانات.
وأضافت الوثيقة مبادئ محورية تتعلق بالخصوصية والأمن لضمان حوكمة النظام، إلى جانب ترسيخ مبدأ «الإنسانية» لضمان بقاء الأنظمة الذكية داعمة للإنسان وليست بديلة عنه أو متجاوزة لقيم المجتمع.
وتطرقت السياسة إلى أهمية المنافع الاجتماعية والبيئية، ومبدأ السلامة والموثوقية لتجنب الأعطال، وصولاً إلى مبدأ «المساءلة والمسؤولية» الذي يُحمّل الأطراف المشمولة كامل المسؤولية عن مخرجات الأنظمة.
وفي خطوة حازمة لردع الانفلات التقني، صنفت الهيئة مخاطر الذكاء الاصطناعي ضمن أربعة مستويات دقيقة، مشددة على اتخاذ إجراءات رادعة تصل إلى المنع القطعي وتعليق الاستخدام للأنظمة مرتفعة التصنيف.

تنظيم المخاطر العالية

وأكدت السياسة التشريعية أن الأنظمة التي تُنذر تقييماتها بوقوع أضرار جسدية أو أمنية أو اقتصادية كارثية تُصنف ك «مخاطر حرجة»، ويُمنع إطلاقها أو تشغيلها نهائياً لصعوبة السيطرة على تداعياتها.
ولفتت الهيئة إلى أن الأنظمة ذات «المخاطر العالية» ستخضع لرقابة مستمرة وتدقيق سنوي من أطراف ثالثة معتمدة، مع اشتراط حصولها على وسم «موثوق» كحد أدنى لأخلاقيات الذكاء الاصطناعي للسماح بتبنيها.
وأشارت التنظيمات إلى تدرج الأوسمة الممنوحة، حيث تتطلب الأنظمة ذات المخاطر «المحدودة» الحصول على وسم «ملتزم»، بينما تُمنح الأنظمة ذات المخاطر البسيطة وسم «واعي»، وصولاً إلى الوسم الأعلى «رائد» لتعزيز مستوى الامتثال.

التحذير من سوء استخدام أدوات الذكاء الاصطناعي

وحذرت «سدايا» عموم المستخدمين وصناع المحتوى من إساءة توظيف أدوات الذكاء الاصطناعي في تضخيم الأخبار الزائفة، مؤكدة أن إنشاء مواد مضللة يمس بالأمن العام ويزعزع الاستقرار المجتمعي.
وشددت المسودة على ضرورة التنويه الصريح عند استخدام تقنيات «التزييف العميق»، ملزمة المطورين بتضمين تقنيات تتبع وعلامات مائية مقاومة للعبث في جميع المخرجات النصية والمرئية والصوتية.
وأفردت السياسة مساحة قانونية صارمة لحماية الأطفال، مانعة بشكل قاطع إنتاج أو معالجة أي محتوى يخصهم تقنياً دون موافقة صريحة من أولياء الأمور، معتبرة التجاوز في هذا الشأن مخالفة تستوجب المساءلة النظامية.
وألزمت التنظيمات مكاتب الذكاء الاصطناعي في الجهات الحكومية بتعيين مسؤولين مختصين للامتثال، وحظرت التعاقد على نماذج ذات غرض عام من مزودين خارجيين دون التدقيق الشامل في تقييمات مخاطرها.

حماية السيادة الوطنية

وبيّن النص التشريعي أهمية حماية «السيادة الوطنية»، ملزماً الجهات والمطورين بالاستضافة الآمنة للبيانات الحساسة والنماذج داخل البنية التحتية المحلية، للحد من التقنيات العابرة للحدود وضمان السرية.
واقترحت السياسة تفعيل اختبارات «الفريق الأحمر» البشري والآلي، وإجراء اختبارات «الضغط المستمر» لاكتشاف الثغرات الأمنية والانحياز في النماذج قبل نشرها وتوثيقها ضمن تقارير السلامة.
وكشفت الهيئة عن تأسيس «بيئة تنظيمية تجريبية» مخصصة لاختبار الأنظمة عالية المخاطر بشكل آمن قبل طرحها في الأسواق، بهدف قياس كفاءة حواجز السلامة وتقييم الأثر المباشر على القطاعات الحيوية.
واختتمت المسودة تفاصيلها بالتأكيد على أن تطبيق هذه السياسة سيتم بآلية تدريجية، لتبدأ إلزامياً في مرحلتها الأولى على الشركات الكبرى والجهات العاملة في القطاعات الحساسة، ضماناً للتحول نحو اقتصاد رقمي مستدام.

مكة بوست ، موقع إخباري شامل يهتم بتقديم خدمة صحفية متميزة للقارئ، وهدفنا أن نصل لقرائنا الأعزاء بالخبر الأدق والأسرع والحصري بما يليق بقواعد وقيم الأسرة السعودية، لذلك نقدم لكم مجموعة كبيرة من الأخبار المتنوعة داخل الأقسام التالية، الأخبار العالمية و المحلية، الاقتصاد، تكنولوجيا ، فن، أخبار الرياضة، منوعات و سياحة.

اخبار تهمك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *