DELMON POST LOGO

قانون الذكاء الاصطناعي لاتحاد الأوروبي

بقلم : د. جاسم حاجي

1 مقدمة:

يمثل قانون الذكاء الاصطناعي للاتحاد الأوروبي خطوة هامة نحو تحقيق التوازن بين الابتكار وحماية الحقوق الأساسية في المشهد المتطور للذكاء الاصطناعي. تمت الموافقة على القانون من قبل برلمان الاتحاد الأوروبي في الثالث عشر من مارس 2024، وهو حاليًا يخضع للفحص النهائي من قبل المحامين واللغويين. كما يتطلب القانون المصادقة من قبل مجلس الاتحاد الأوروبي وسيدخل حيز التنفيذ بعد عشرين يومًا من نشره في الجريدة الرسمية.

2 الغرض من قانون الذكاء الاصطناعي:

يهدف قانون الذكاء الاصطناعي إلى إنشاء إطار قانوني شامل يحكم تطوير وترويج وتطبيق الذكاء الاصطناعي داخل الاتحاد الأوروبي. يتماشى القانون مع قيم الاتحاد الأوروبي، مما يتيح التطوير المسؤول والأخلاقي والاستخدام المناسب للذكاء الاصطناعي عبر مختلف القطاعات. إضافة إلى ذلك، يعزز القانون الذكاء الاصطناعي المركز على الإنسان والموثوق به، مع ضمان صحة المستخدمين وسلامتهم وحقوقهم الأساسية. كما يدعم القانون الابتكار مع التقليل من الآثار السلبية لأنظمة الذكاء الاصطناعي في الاتحاد الأوروبي.

3 نطاق قانون الذكاء الاصطناعي للاتحاد الأوروبي:

ينطبق القانون على جميع أنظمة الذكاء الاصطناعي، بغض النظر عن مصدرها، عندما يتم تقديمها إلى سوق الاتحاد الأوروبي، حتى لو كانت هذه الكيانات في دولة ثالثة.

4 تصنيف النظام الأساسي للذكاء الاصطناعي حسب المخاطر:

يصنف قانون الذكاء الاصطناعي الأنظمة حسب مخاطرها مع عدم تنظيم الأنظمة ذات المخاطر المنخفضة/المعدومة أو إعلانها للمستخدم:

4.1 أنظمة الذكاء الاصطناعي المحظورة:

تُحظر أنظمة الذكاء الاصطناعي إذا كانت تشارك في:

1. تقنيات التلاعب الدقيقة التي تسبب أضرار.

2. استغلال الثغرات للإحداث الضرر.

3. أنظمة القياس الحيوي التي تستنتج السمات الحساسة.

4. التقييم الاجتماعي الذي يؤدي إلى الضرر.

5. تقييم المخاطر الجنائية بناءً على التنميط.

6. قواعد بيانات التعرف على الوجه من الإنترنت أو كاميرات المراقبة.

7. استنتاج العواطف، باستثناء لأسباب طبية/أمنية.

8. تقييد التعرف البيومتري عن بُعد في الوقت الفعلي للأغراض القانونية، مع تقييم وترخيص إلزامي.

4.2 أنظمة الذكاء الاصطناعي عالية المخاطر:

يركز معظم قانون الذكاء الاصطناعي على أنظمة الذكاء الاصطناعي عالية المخاطر، مغطيًا تصنيفها ومتطلباتها وحالات استخدامها المناسبة.

4.2.1 أنظمة الذكاء الاصطناعي عالية المخاطر:

يُصنف نظام الذكاء الاصطناعي على أنه عالي المخاطر إذا:

1. يُستخدم كمكون أمان أو يغطيه قانون الاتحاد الأوروبي في الملحق الثاني (الجرائم الجنائية)، مما يتطلب تقييم توافق من قبل طرف ثالث.

2. يقع تحت حالات استخدام الملحق الثالث (البيومترية غير المحظورة، البنية التحتية الحرجة، إدارة العدالة، إلخ) باستثناء المهام الإجرائية الضيقة أو التحسينات على الأنشطة البشرية السابقة.

3. دائمًا ما يُعتبر النظام عالي المخاطر إذا كان يشمل التنميط الفردي من خلال المعالجة الآلية للبيانات الشخصية.

4.2.2 متطلبات مزودي الذكاء الاصطناعي:

يجب على مزودي الذكاء الاصطناعي عالي المخاطر:

1. إنشاء نظام إدارة جودة لضمان الامتثال التنظيمي.

2. تطبيق نظام إدارة المخاطر طوال دورة حياة أنظمة الذكاء الاصطناعي عالية المخاطر.

3. ضمان حوكمة البيانات عبر مجموعات بيانات التدريب والتحقق والاختبار.

4. دمج قدرات الحفظ والتوثيق الفني في أنظمة الذكاء الاصطناعي عالية المخاطر للشفافية وتوثيق دورة حياة النظام.

5. تمكين الناشرين من تطبيق الإشراف البشري ضمن أنظمة الذكاء الاصطناعي عالية المخاطر.

6. تصميم أنظمة الذكاء الاصطناعي عالية المخاطر لتكون دقيقة ومتينة وآمنة من الناحية السيبرانية.

7. إظهار الامتثال من خلال تقييمات التوافق لأنظمة الذكاء الاصطناعي تحت الملحق الثالث قبل وضعها في السوق أو استخدامها.

8. تسجيل الأنظمة في قاعدة بيانات عامة للاتحاد الأوروبي، باستثناء تلك المستخدمة لأغراض تنفيذ القانون أو الهجرة.

5 نماذج الذكاء الاصطناعي عامة الاستخدام (GPAI):

يوفر القانون إرشادات مفصلة لنماذج الذكاء الاصطناعي عامة الاستخدام (GPAI)، والتي تُعرف بأنها أنظمة الذكاء الاصطناعي القادرة على أداء مهام متنوعة ويمكن دمجها في تطبيقات مختلفة، مثل .LLM يمكن أن تعمل هذه الأنظمة بشكل مستقل أو دمجها في أنظمة الذكاء الاصطناعي عالية المخاطر، مما يتطلب تعاونًا بين المزودين لضمان الامتثال التنظيمي.

5.1 نماذج الذكاء الاصطناعي عامة الاستخدام (GPAI):

1. إعداد وثائق فنية تفصل عمليات التدريب والاختبار.

2. توفير المعلومات والوثائق لمزودي الخدمة لدمج نموذجGPAI، مع توضيح القدرات والقيود الخاصة بها.

3. إنشاء سياسة للالتزام بتوجيه حقوق النشر.

4. نشر ملخص مفصل لبيانات التدريب.

5. ضمان الامتثال مع الالتزامات الخاصة لنماذج GPAI ذات الرخصة المجانية والمفتوحة، ما لم يتم تصنيفها على أنها منهجية.

6 الحوكمة:

1. السلطة الوطنية لمراقبة السوق للإشراف على جميع أنظمة الذكاء الاصطناعي باستثناء .GPAI

2. إنشاء جسم معتمد ذو شخصية قانونية بموجب القانون الوطني للدولة العضو.

3. تقديم التقييمات أو النتائج إلى اللجنة.

4. مكتب الذكاء الاصطناعي ضمن اللجنة سيشرف على امتثال مزودي نموذج .GPAI

5. يجب على الدول الأعضاء إنشاء مختبر تنظيمي واحد على الأقل لاختبار أنظمة الذكاء الاصطناعي.

6. تنفيذ خطط مراقبة ما بعد السوق للأنظمة عالية المخاطر.

7. ستقدم اللجنة ومجلس الذكاء الاصطناعي المشورة بشأن التنفيذ، وتنسيق السلطات الوطنية، وإصدار التوصيات.

8. يتضمن قانون الذكاء الاصطناعي عقوبات على عدم الالتزام.

7 الجداول الزمنية:

بعد دخول القانون حيز التنفيذ، سيتم تطبيق قانون الذكاء الاصطناعي على:

1. الأنظمة المحظورة خلال 6 أشهر.

2. GPAI خلال 12 شهرًا.

3. الأنظمة عالية المخاطر تحت الملحق الثالث خلال 24 شهرًا.

4. الأنظمة عالية المخاطر تحت الملحق الثاني خلال 36 شهرًا.

5. سيقوم مكتب الذكاء الاصطناعي بإعداد مدونات الممارسة خلال تسعة أشهر من دخول القانون حيز التنفيذ.