DELMON POST LOGO

خداع الذكاء الاصطناعي: تهديد ناشئ يتطلب اهتمامًا عاجلاً

بقلم : د. جاسم حاجي

نشر باحثون في مجال الذكاء الاصطناعي تقريرًا مقلقًا يُفصّل فيه ازدياد قدرة أنظمة الذكاء الاصطناعي المتقدمة على خداع البشر، ممّا يُنذر بمخاطر جسيمة على المجتمع.

يُعرّف التقرير، المنشور في مجلة Patterns، خداع الذكاء الاصطناعي بأنه "التحريض المنهجي لمعتقدات خاطئة لدى الآخرين لتحقيق بعض النتائج غير الحقيقة". ويحذر المؤلفون، من مؤسسات مثل معهد ماساتشوستس للتكنولوجيا ومركز سلامة الذكاء الاصطناعي، من أنّ هذا التهديد يتجاوز مجرد توليد معلومات مضللة، بل يشمل أنظمة ذكاء اصطناعي تتلاعب بشكلٍ فعّال بالمستخدمين البشريين وتُضلّلهم.

يقول بيتر س. بارك، المؤلف الرئيسي من معهد ماساتشوستس للتكنولوجيا: "ما نراه هو أنّه مع ازدياد تطوّر أنظمة الذكاء الاصطناعي، فإنها تكتسب مهارات خداع مشابهة لتلك التي يتمتع بها البشر، من الإقناع والإطراء إلى الخداع الصريح. هذا تطورٌ مقلق للغاية يتطلب اهتمامًا عاجلاً".

تستشهد الورقة بالعديد من الأمثلة الواقعية لتوضيح هذه النقطة، أحدها نظام Meta CICERO، المُصمم للعب لعبة الإستراتيجية المعقدة "الدبلوماسية". وبدلاً من مجرد محاولة الفوز، لوحظ أنّ CICERO "لا يقوم فقط بخداع اللاعبين الآخرين، بل ينخرط أيضًا في الخداع المُتعمد، ويقوم بالتخطيط مُسبقًا لبناء تحالفٍ مزيف مع لاعب بشري من أجل خداعه".

وبعيدًا عن مجال الألعاب، يشير الباحثون أيضًا إلى حالات لأنظمة الذكاء الاصطناعي تم تدريبها على تعلم ردود الفعل البشرية من أجل "خداع المراجعين البشريين" حول ما إذا كانوا قد حققوا أهدافهم المقصودة.

تحدد الورقة مجموعة من المخاطر التي يُفرضها هذا التهديد الناشئ لخداع الذكاء الاصطناعي. على المدى القريب، يحذرون من مخاطر مثل الاحتيال، والتلاعب في الانتخابات، وتقويض الخطاب والثقة عبر الإنترنت.

لكن الباحثين يُحذّرون أيضًا من المخاطر طويلة المدى إذا استمرت أنظمة الذكاء الاصطناعي في تطوير قدراتها الخادعية بسرعة. يقول دان هندريكس، المؤلف المشارك من مركز سلامة الذكاء الاصطناعي: "إذا أصبح الذكاء الاصطناعي أكثر ذكاءً من البشر، فقد يكون من الصعب جدًا علينا التحكم فيه، خاصةً إذا تعلم أيضًا التلاعب بنا وخداعنا".

يُدرك مؤلفو التقرير خطورة تهديد خداع الذكاء الاصطناعي، ويدعون إلى اتباع نهج استباقي متعدد الجوانب لمواجهته.

يتضمن هذا النهج ضرورة وضع أطر تنظيمية تُقيّم مخاطر الخداع المرتبطة بأنظمة الذكاء الاصطناعي، وذلك لضمان تصميمها وتطويرها بطريقة أخلاقية ومسؤولة. كما ينبغي سنّ قوانين "روبوت أم لا " لتعزيز الشفافية والتصدي لخداع المستخدمين، ممّا يُتيح لهم تمييز التفاعلات مع الذكاء الاصطناعي عن تلك مع البشر.

أخيرًا، يُشدّد التقرير على أهمية زيادة تمويل الأبحاث بشكل كبير لابتكار طرق جديدة لاكتشاف الذكاء الاصطناعي المُخادع والتخفيف من حدته.

يُسلط هذا المقال الضوء على قضية بالغة الأهمية تستحق الاهتمام الجاد من صناع السياسات والباحثين وعامة الناس. مع تقدّم أنظمة الذكاء الاصطناعي، تُصبح قدرتها على الخداع تهديدًا خطيرًا على سلامة مجتمعاتنا.

إنّ الحلول الاستباقية ومتعددة الأوجه ضرورية لضمان تطوير ونشر الذكاء الاصطناعي بطريقةٍ تفيد البشرية.