نظمها في معرض فرانكفورت الدولي للكتاب بمشاركة نخبة من الخبراء والمتخصصين
ندوة لـ«تريندز» تحلل «دور الذكاء الاصطناعي في الأنظمة الرقابية» بين الفرص والمخاطر
خبراء ومتخصصون:
• طبيعة الذكاء الاصطناعي المزدوجة تجعله أداة لتعزيز الأمن أو تميكن المجرمين
• أدوات الذكاء الاصطناعي تساعد الإرهابيين على تنفيذ هجمات رقمية وميدانية
• الدعوة إلى تحقيق التوازن بين الخصوصية ومتطلبات الأمن ضمن منظومة شفافة
• إنشاء هيئات رقابية وتنظيم الوصول للتقنيات الحساسة ضرورة في زمن الذكاء الاصطناعي
• مواجهة تحديات الذكاء الاصطناعي الأمنية تتطلب تعاوناً دولياً وسياسات متطورة
نظم مركز تريندز للبحوث والاستشارات، عبر مكتبه الافتراضي في ألمانيا، ندوة «دور الذكاء الاصطناعي في الأمن.. الموازنة بين حدود التكنولوجيا والمسؤولية البشرية»، وذلك على هامش مشاركته في النسخة الـ77 من معرض فرانكفورت الدولي للكتاب 2025، وبمشاركة نخبة من الخبراء والمتخصصين في مجالات الأمن والدفاع والاستخبارات ومكافحة الإرهاب.
وأكد المشاركون في الندوة، التي أدارها هزاع سيف الحمادي، الباحث في «تريندز»، أن العالم يواجه تحدياً مزدوجاً بفعل تطور تقنيات الذكاء الاصطناعي واندماجها في البنى التحتية الأمنية والأنظمة الرقابية ومكافحة الإرهاب وتحليل المعلومات الاستخباراتية والدفاع العسكري، وذلك يزيد من مخاطر تأثير الذكاء الاصطناعي على المشهد الأمني العالمي.
الذكاء الاصطناعي العكسي
واستهل الندوة الدكتور محمد عبدالله العلي، الرئيس التنفيذي لمركز تريندز للبحوث والاستشارات، قائلاً إن مجال الأمن الوطني والدولي يشهد تحولاً سريعاً بفضل الذكاء الاصطناعي، حيث يُستخدم في مكافحة الإرهاب وتأمين الأمن السيبراني والمراقبة والتنبؤ بالجريمة، وضبط الحدود وتطوير الاستراتيجيات العسكرية، كما تتيح تقنيات الذكاء الاصطناعي زيادة الكفاءة والكشف المبكر عن التهديدات.
وذكر أنه مع الانتشار المتسارع لأنظمة الذكاء الاصطناعي برزت العديد من المخاطر، منها «الذكاء الاصطناعي العكسي»، حيث يمكن استغلال الأنظمة الذكية نفسها أو التلاعب بها لخداعها، مما قد يؤثر سلباً على أنظمة الطوارئ والأمن، ويعرض حياة البشر والمجتمعات للخطر، كما يمكن استخدام التكنولوجيا كسلاح غير مرئي يهدد الشفافية والعدالة في إدارة الطوارئ.
مخاطر التحيز والانتهاك
وأشار العلي إلى الذكاء الاصطناعي، رغم قوة وفاعلية أدواته، فإنه يطرح مخاطر، مثل التحيّز الخوارزمي، وسوء الاستخدام في المراقبة، والتعدي على الخصوصية، والاعتماد المفرط على الأنظمة الآلية، ومن دون إشراف مناسب، قد يؤدي توظيفه إلى تصنيفات خاطئة، وانتهاكات للقانون الدولي.
وأضاف أن دور الذكاء الاصطناعي يجب أن يكون مساعداً في اتخاذ القرارات الأمنية الحساسة، وليس بديلاً عن التقدير البشري، ولا يمكن لأي دولة مواجهة تحديات الذكاء الاصطناعي بمفردها، فهناك حاجة ملحّة للتعاون الدولي، وتطوير السياسات، ووضع معايير أخلاقية لتنظيم استخدام الذكاء الاصطناعي في الأمن.
مكافحة الإرهاب
بدوره، أكد يان سان بيير، الرئيس التنفيذي لشركة موسيكون، ومستشار مكافحة الإرهاب - برلين، أن الذكاء الاصطناعي أصبح عنصراً محورياً في مكافحة الإرهاب وفي تطوير أساليبه، فبينما يمنح قدرات تحليلية واستخباراتية متقدمة، يحمل أيضاً مخاطر إساءة الاستخدام، فطبيعته المزدوجة تجعله أداة يمكنها تعزيز الأمن أو تمكين المجرمين، مما يستدعي إشرافاً بشرياً مسؤولاً ومتواصلاً.
وأوضح أن التنظيمات المتطرفة تستغل الذكاء الاصطناعي في ثلاثة مجالات رئيسية «الدعاية والتجنيد، الهجمات السيبرانية، والتخطيط لهجمات ميدانية»، هذا الاستخدام يمنحها قدرة على الانتشار السريع والتأثير في الرأي العام، وتنفيذ عمليات رقمية وواقعية معقدة تفوق قدرات المراقبة التقليدية.
وبين بيير أن أدوات الذكاء الاصطناعي تساعد الإرهابيين على تنفيذ هجمات رقمية مثل برامج الفدية، والتصيد الإلكتروني، وهجمات حجب الخدمة، كما تُستخدم في تحليل البنى التحتية وجمع بيانات لتخطيط هجمات ميدانية، مضيفاً أنه في المقابل توظف الجهات الأمنية الذكاء الاصطناعي في جمع المعلومات المفتوحة ومكافحة التضليل، كما يسهم في تحليل البيانات وتعقب الأنشطة المالية، ورصد المحتوى المتطرف.
وأضاف أنه رغم تطور الذكاء الاصطناعي، لا يمكنه استبدال الفهم البشري للسياقات الأمنية، لأن الاعتماد المفرط عليه قد يوسع الفجوة بين الإرهابيين والأجهزة الأمنية، وتبقى الحاجة ضرورية لوضع أطر أخلاقية وقانونية وضمان الشفافية والمساءلة، لأن القرار النهائي يجب أن يظل بيد الإنسان.
تعزيز الدفاع السيبراني
من جانبه، قال مصطفى العمار، عضو الاتحاد الديمقراطي المسيحي الألماني، إن الذكاء الاصطناعي أداة مساندة للأمن والقضاء، تسهم في تسريع الإجراءات وتحليل البيانات بدقة وكفاءة، لكنه في الوقت ذاته يحمل مخاطر حقيقية، أبرزها التزييف العميق والتضليل الإعلامي، اللذان قد يستخدمان لزعزعة الاستقرار والتأثير في الرأي العام، فالتكنولوجيا يمكن أن تكون وسيلة للحماية أو أداة للتدمير تبعاً لمن يستخدمها.
وشدد على ضرورة بناء أنظمة أمنية رقمية حديثة تتيح تبادلاً سريعاً وآمناً للمعلومات بين الجهات الأمنية على المستويين الوطني والأوروبي، مع تعزيز الدفاع السيبراني بأنظمة ذكية قادرة على التنبؤ بالتهديدات، محذراً من أن حماية البيانات لا يجب أن تتحول إلى حماية للمجرمين.
ودعا العمار إلى تحقيق التوازن بين الخصوصية ومتطلبات الأمن، ضمن منظومة شفافة وخاضعة للمساءلة، إلى جانب توحيد المعايير الأوروبية في الدفاع السيبراني، وتطوير وكالة «يوروبول» لتصبح جهازاً أوروبياً متكاملاً يستخدم الذكاء الاصطناعي في مواجهة التهديدات.
القرار النهائي للإنسان
أما الدكتور جاسم محمد، مدير المركز الأوروبي لدراسات مكافحة الإرهاب والاستخبارات «ECCI»، فيرى أن الذكاء الاصطناعي أصبح أداة محورية في العمل الاستخباري، حيث يُستخدم لتحليل كميات ضخمة من البيانات واكتشاف التهديدات بسرعة، لكن يجب أن يبقى القرار النهائي بيد الإنسان، فالذكاء الاصطناعي لا يفهم السياق الأخلاقي أو المعنوي، مما يجعل الاعتماد الكلي عليه خطراً جسيماً.
وبين أنه من أبرز مخاطر الذكاء الاصطناعي، التحيز الناتج عن البيانات غير المتوازنة، والثقة المفرطة بنتائج الأنظمة الآلية، إضافة إلى إمكانية إساءة استخدام الذكاء الاصطناعي في التضليل والتزييف العميق، كما تثير استخداماته تساؤلات قانونية وأخلاقية تتطلب رقابة صارمة.
وذكر أن العامل البشري يظل الأساس، ويجب أن يكون الإنسان في الحلقة، يراجع ويصادق على القرارات، مع توفير التدريب المستمر في التحليل والأخلاقيات والتفكير النقدي والشفافية والمساءلة، موصياً بوضع حدود واضحة لاستخدام الذكاء الاصطناعي، وإنشاء هيئات رقابية، وتنظيم الوصول للتقنيات الحساسة، إضافة إلى تعزيز التعاون الدولي لتطوير أُطر قانونية تحمي القيم الديمقراطية.