DELMON POST LOGO

عبيدلي في جمعية التقدمي : ضرورة  الاستثمار في تدريب النشطين السياسيين على استخدام الذكاء الاصطناعي

تحديات استخدام الذكاء الصناعي هو التضليل وامن المعلومات

   

الفرص هائلة، ولكن يجب موازنتها مع الحذر، لا سيما فيما يتعلق بالخصوصية والتحيز والمعلومات المضللة في العمل السياسي

بدأ عبيدلي عبيدلي ندوته التي كانت بعنوان " الذكاء الصناعي في العملية السياسية " مساء امس بجمعية المنبر التقدمي بالتعريف العلمي للذكاء الصناعي وهو  " قدرة أجهزة الحاسوب أو أنظمته على تنفيذ المهام التي تتطلب عادة ذكاءً بشريًا. وتشمل هذه المهام التفكير، والتعلم، وحل المشكلات، والإدراك، وفهم اللغة الطبيعية." ، اما التعريف السياسي فهو مختلف ، ويتعلق بنظر الحكومات وصانعي السياسات والمنظمات الدولية إلى تطوير وتنظيم وتأثير تقنيات الذكاء الاصطناعي ومعالجتها، حتى يتسنى لها أن تشمل الجوانب الرئيسية، وهي، الامن القومي ، والمنافسة العالمية، والتنظيم والسياسة ، والصالح العام.

وقال ان هناك العديد من المفاهيم الخاطئة عن الذكاء الصناعي متداولة بين الناس وهي :

• أولا :الاعتقاد بانه سيحل محل الانسان ، وهو ليس كذلك ، في العمل السياسي، يستخدم الذكاء الاصطناعي في المقام الأول لأتمتة العمليات، وتحليل مجموعات البيانات الضخمة، والمساعدة في صنع القرار، وليس لاستبدال الجهات الفاعلة السياسية البشرية. فالذكاء الاصطناعي قادر على تحديد الأنماط، أو التنبؤ بسلوك الناخبين، أو تعزيز قنوات الاتصال، لكنه لا يزال يتطلب إشرافًا بشريًا وإرشادات أخلاقية.

•  ثانيا الامن السيبراني هو الحماية من سرقة المعلومات وضد اختراق الفيروسات ، بينما الحقيقة هو حماية البنية التحتية للدولة ، بل ينطوي الأمن السيبراني في العمل السياسي على حماية البنية التحتية السياسية الحيوية، وحماية أنظمة الانتخابات، وضمان سلامة الاتصال بين الجهات السياسية الفاعلة. لا يتعلق الأمر فقط بمنع القرصنة. إذ يتعلق الأمر بتأمين أنظمة سياسية كاملة من التهديدات السيبرانية مثل التدخل في الانتخابات والتجسس وحملات التضليل.

• ثالثا : الاعتقاد بان البيانات الضخمة  big data  انها تعتمد على الكم لا على الكيف . وهو مفهوم خاطئ تماما لان البيانات الضخمة يمكن أن توفر رؤى قيمة حول سلوك الناخبين، والرأي العام وتأثيرات السياسة، فإن الافتراض بأن المزيد من البيانات يساوي قرارات أفضل، هو افتراض خاطئ. ففي غياب الأدوات التحليلية والتفسير المناسبين، يمكن أن تؤدي البيانات الضخمة إلى استنتاجات مضللة أو منحرفة. في العمل السياسي، غالبا ما تستخدم البيانات الضخمة لاستهداف الناخبين برسائل مخصصة أو للتنبؤ بالنتائج الانتخابية، ولكن إذا كانت البيانات متحيزة أو غير كاملة، فقد تؤدي إلى نتائج مضللة.

كما تثير البيانات الضخمة مخاوف أخلاقية كبيرة فيما يتعلق بالخصوصية والتلاعب بالرأي العام. أدى سوء استخدام البيانات الشخصية في الحملات السياسية إلى قضايا مثل فضيحة كامبريدج أناليتيكا، حيث تم استخدام جمع البيانات والمعلومات المضللة المستهدفة للتأثير على النتائج السياسية.

• رابعا : الاعتقاد بأن الذكاء الاصطناعي هو تقنية "محايدة". في الواقع، يمكن أن تؤثر التحيزات والبيانات التي يتم إدخالها في أنظمة الذكاء الاصطناعي على النتائج السياسية وصنع القرار. يمكن تسليح الذكاء الاصطناعي ببيانات المراقبة، وحملات الدعاية، والمعلومات المضللة، إذا لم يتم تنظيمها بشكل صحيح.

الذكاء الاصطناعي في أنشطة العمل السياسي

الذكاء الاصطناعي هو ظاهرو قابلة للتحول في جوانب متعددة من العمل السياسي. من خلال دمج الذكاء الاصطناعي في مختلف الأنشطة السياسية، يمكن للحكومات والمؤسسات السياسية والمنظمات تحسين الكفاءة والشفافية وقدرات صنع القرار. وفيما يلي بعض تطبيقات الذكاء الاصطناعي في العمل السياسي المفصلية:

• إدارة الحملات السياسية من خلال تحليل سلوك الناخبين ، والإعلانات السياسية المستهدفة، روبوتات الدردشة لإشراك الناخبين ، وصياغة السياسات واتخاذ القرارات بناءا على المعلومات المستقاة ، والتحليلات التنبؤية للاتجاهات المستقبلية وتحليل الرأي العام من خلال تحليل المشاعر لوسائل التواصل الاجتماعي وردود الفعل العامة وتكييف السياسات ، والتاكد وضمان نزاهة وأمن الانتخابات من خلال مراقبة العمليات الانتخابية ، والأمن السيبراني لأنظمة التصويت .

يتم أيضا استخدام الذكاء الصناعي في الصياغة والتحليل التشريعي ، أولا الصياغة التشريعية الآلية  يمكن للأدوات التي تعمل بنظام الذكاء الاصطناعي أن تساعد المشرعين في صياغة مشاريع القوانين من خلال تحليل القوانين الحالية وتحديد الثغرات أو التناقضات. كما يمكن لمنصات الذكاء الاصطناعي اقتراح تشريعات جديدة تستند إلى السوابق القضائية والسوابق القضائية ذات الصلة ، وتحليل الأثر التشريعي ، وأخيرا إدارة الأزمات والاستجابة للطوارئ في أي بلد حيث يساهم في معالجة البيانات في الوقت الفعلي لإدارة الأزمات: أثناء الأزمات السياسية أو الاجتماعية، مثل الكوارث الطبيعية أو حالات الطوارئ الصحية العامة، في قدرة الذكاء الاصطناعي معالجة البيانات في الوقت الفعلي للمساعدة في تخصيص الموارد، وتحديد المجالات الحرجة للتدخل، وتزويد صانعي القرار برؤى لتحسين استجاباتهم ، ويستخدم في السلم لحل النزاعات: في المناطق غير المستقرة سياسيا، يحلل الذكاء الاصطناعي ديناميكيات الصراع والبيانات التاريخية، لاقتراح استراتيجيات خفض التصعيد، أو التنبؤ بالنقاط الساخنة المحتملة للعنف السياسي.. كذلك في التثقيف السياسي والتوعية.

فرص استخدام الذكاء الاصطناعي سياسيًا

يستخدم في تعزيز عملية صنع القرار ، • المشاركة العامة والمشاركة المدنية ، وتحسين الشفافية والمساءلة ونزاهة وامن الانتخابات.

تحديات استخدام الذكاء الاصطناعي في العمل السياسي

أولا ، المخاوف الأخلاقية والتحيز في الأنظمة الذكاء الاصطناعي لانه منحاز ، كذلك الخصوصية وامن البيانات ، ويمكن ياسهم في التضليل والتلاعب بالنتائج ، واستغلال امية العاملين في المجال السياسي بالذكاء الصناعي  ، والتحديات التنظيمية والحوكمة ، ومن  التحديات عدم  المساواة في الوصول إلى تكنولوجيا الذكاء الاصطناعي لجميع الناس في العالم .

التوصيات

وقدم العبيدلي تسع توصيات لاستخدام الذكاء الصناعي ، لاستخدامه أفضل الممارسات لضمان تطبيقه بشكل فعال وأخلاقي في العمل السياسي.

1-  الاستثمار في تدريب النشطين السياسيين على استخدام الذكاء الاصطناعي

2- وضع أطر أخلاقية وإرشادات تنظيم الذكاء الاصطناعي في السياسة. مثل الشفافية والعدالة والحوكمة والخصوصية والاطر القانونية .

3- تعزيز الوعي بدور الذكاء الاصطناعي في العمليات السياسية

4- إنشاء آليات للمساءلة والرقابة الذكاء الاصطناعي

5- تشجيع تعاون القطاعات لدمج الذكاء الاصطناعي سياسيًا6.

6-الاستفادة من الذكاء الاصطناعي من أجل المشاركة السياسية العادلة.

خلاصة

بينما نتنقل في تقاطع الذكاء الاصطناعي والعمل السياسي، يصبح من الواضح أن الذكاء الاصطناعي لديه القدرة على تعزيز العمليات السياسية والحوكمة بشكل كبير إذا تم استخدامه بشكل صحيح.

إذ يمكن لقدرة الذكاء الاصطناعي على تحليل البيانات والمشاركة العامة وإدارة الأزمات والأمن السيبراني أن تحدث ثورة في كيفية تفاعل الحكومات مع مواطنيها، وكيفية صياغة السياسات، وكيفية إجراء الانتخابات. ويمكن لهذا التحول، إذا تم تسخيره بمسؤولية، أن يؤدي إلى حقبة جديدة من الحكم الشفاف والفعال والخاضع للمساءلة، وغرس التفاؤل والأمل في إمكانات الذكاء الاصطناعي.

إن الفرص التي يتيحها الذكاء الاصطناعي في العمل السياسي هائلة، ولكن يجب موازنتها مع الحذر، لا سيما فيما يتعلق بالخصوصية والتحيز والمعلومات المضللة. ويتعين على الحكومات والمؤسسات السياسية أن تستثمر في مؤسسات تعليم الذكاء الاصطناعي، وأن تنشئ أطرا أخلاقية واضحة، وأن تنخرط في تعاون هادف مع خبراء الذكاء الاصطناعي لضمان الاستخدام المسؤول والفعال لهذه التكنولوجيا.

وعلى نفس القدر من الأهمية الشفافية والوعي العام، وضمان فهم المواطنين لدور الذكاء الاصطناعي في العمليات السياسية، وكيف يؤثر على حياتهم. وتعزز هذه الشفافية الثقة، وتخفف من الخوف، وتشجع قبول الجمهور.

في الختام، يمكن أن يؤدي الإدماج المسؤول الذكاء الاصطناعي في العمل السياسي إلى حوكمة أكثر شفافية وكفاءة وخضوعا للمساءلة. من خلال اعتماد الاستراتيجيات الصحيحة ومواجهة التحديات بشكل مباشر، يمكن للجهات الفاعلة السياسية تسخير الذكاء الاصطناعي لدفع التغيير الإيجابي في مجتمعاتهم ومؤسساتهم.

وتشكل التوصيات الواردة في هذه الورقة – التي تركز على التعليم والحوكمة الأخلاقية والتعاون والمشاركة العامة – خارطة طريق لتحقيق إمكانات الذكاء الاصطناعي مع الحفاظ على القيم الديمقراطية وحقوق الإنسان في العمل السياسي. ادار الندوة الدكتور علي البقارة