بقلم : د. جاسم حاجي
أصبح الذكاء الاصطناعي جزءًا لا يتجزأ من حياتنا اليومية، حيث يعمل على تشغيل كل شيء من المساعدين الافتراضيين وأنظمة التوصية إلى أدوات اتخاذ القرار الآلية في الرعاية الصحية والتمويل. ومع تزايد قوة وانتشار تكنولوجيا الذكاء الاصطناعي، أدى تأثيرها على المجتمع والاقتصاد وحقوق الإنسان إلى مناقشات عالمية حول ضمان استفادة البشرية من هذه التقنيات مع تقليل مخاطرها المحتملة إلى أدنى حد.
تنشأ الحاجة إلى حوكمة الذكاء الاصطناعي من التحديات الواقعية التي يفرضها الذكاء الاصطناعي اليوم. يمكن لأنظمة الذكاء الاصطناعي إدامة التحيزات، أو المساس بالخصوصية، أو اتخاذ قرارات مهمة تؤثر على حياة البشر، غالبًا دون مساءلة واضحة. تنمو المخاوف الأخلاقية حول الإنصاف والشفافية والإشراف البشري مع توسع الذكاء الاصطناعي في مجالات حساسة مثل الإقراض والعدالة الجنائية وما إلى ذلك. دفعت هذه القضايا الحكومات والمنظمات في جميع أنحاء العالم إلى إنشاء أطر تهدف إلى تطوير الذكاء الاصطناعي ونشره بشكل مسؤول.
يعد قانون الذكاء الاصطناعي للاتحاد الأوروبي علامة بارزة في تنظيم الذكاء الاصطناعي، ويمثل أول تشريع شامل من نوعه في العالم. يصنف هذا التشريع أنظمة الذكاء الاصطناعي بناءً على مستويات المخاطر، والتي تتراوح من الحد الأدنى إلى غير المقبول. تخضع تطبيقات الذكاء الاصطناعي عالية المخاطر مثل تلك المستخدمة في البنية التحتية الحرجة أو تنفيذ القانون لمتطلبات صارمة فيما يتعلق بجودة البيانات والتوثيق والإشراف البشري والشفافية. بالإضافة إلى ذلك، يحظر القانون بعض ممارسات الذكاء الاصطناعي، مثل التمييز الاجتماعي والتلاعب.
في الولايات المتحدة، قدم المعهد الوطني للمعايير والتكنولوجيا (NIST) إطار عمل لإدارة مخاطر الذكاء الاصطناعي. يساعد هذا الدليل المنظمات على تقييم وإدارة مخاطر الذكاء الاصطناعي عبر دورة حياتها، من التصميم والتطوير إلى النشر والمراقبة. يشجع الإطار الممارسات التي تبني الثقة في أنظمة الذكاء الاصطناعي مع تشجيع الابتكار المستمر.
أصدرت منظمة الصحة العالمية أيضًا إرشادات بشأن الذكاء الاصطناعي في الرعاية الصحية، مؤكدة على حقوق المرضى والاستخدام الأخلاقي للذكاء الاصطناعي في السياقات الطبية. يعتمد إطار منظمة الصحة العالمية على ستة مبادئ أساسية: حماية استقلالية الإنسان، وتعزيز الرفاهية، وضمان العدالة، والحفاظ على الشفافية، وتمكين المساءلة، وتشجيع الاستدامة البيئية في ممارسات الذكاء الاصطناعي.
ومن الجهود الجديرة بالملاحظة معيار المنظمة الدولية للمعايير ISO 42001:2023، وهو معيار دولي لأنظمة إدارة الذكاء الاصطناعي. يساعد هذا الإطار المنظمات في إنشاء هياكل حوكمة فعّالة، تشمل إدارة المخاطر، وتقييم الأداء، والتحسين المستمر لأنظمة الذكاء الاصطناعي، وكل ذلك مع التوافق مع أهداف المنظمة واحتياجات أصحاب المصلحة.
مع استمرار تطور الذكاء الاصطناعي بسرعة، يجب أن تواكب أطر الحوكمة التحديات والفرص الناشئة. وهذا يتطلب تحديثات منتظمة للوائح والمعايير، والحوار المستمر بين أصحاب المصلحة، والاستثمار في البحث لفهم التأثيرات طويلة الأجل للذكاء الاصطناعي. يجب على المنظمات أيضًا أن تظل مرنة، وتوازن بين الابتكار والممارسات المسؤولة في تطوير الذكاء الاصطناعي.
يعتمد مستقبل الذكاء الاصطناعي على مدى فعاليتنا في إدارته اليوم. من خلال تنفيذ أطر حوكمة قوية والحفاظ على حوار مفتوح بين مطوري التكنولوجيا وصناع السياسات والجمهور، يمكننا الاستفادة من إمكانات الذكاء الاصطناعي مع حماية القيم والحقوق الإنسانية. الهدف ليس تقييد الابتكار ولكن ضمان أن يتماشى تطوير الذكاء الاصطناعي مع المصالح الإنسانية والرفاهة المجتمعية.