أكدت أهمية سن تشريعات لاستخدام علم الخوارزميات

جلسة حوارية لمركز تريندز تستشرف مستقبل الذكاء الاصطناعي المسؤول

جلسة حوارية لمركز تريندز تستشرف مستقبل الذكاء الاصطناعي المسؤول


أكد مشاركون في جلسة حوارية، نظمها مركز تريندز للبحوث والاستشارات، أن مستقبل الذكاء الاصطناعي يحتاج إلى تطوير أدوات فعالة لاستشراف المستقبل، فضلاً عن اتباع سياسيات وسنّ تشريعات ناجعة حيال استخدام البرمجيات وعلم الخوارزميات، مع ضرورة وضع منهجية شاملة تركز على المجتمع وتؤكد على أخلاقية ومسؤولية الأنظمة والتطبيقات التكنولوجية. وأشار المشاركون إلى أن الذكاء الاصطناعي أصبح جزءاً جوهرياً من تطوير الحلول، ولديه القدرة على المساعدة في مواجهة أصعب التحديات والعقبات التي يواجهها العالم، كما بات عنصراً أساسياً في الحياة اليومية، ولكنه ينطوي على العديد من المخاطر والإخفاقات، مشددين على أهمية تعزيز ثقافة الثقة في المؤسسة أو المنظمة التي تعمل على بناء الأنظمة والتطبيقات وتغذيتها بالبيانات لإنشاء أنظمة آمنة ومسؤولة، مع التأكيد على تطبيق أخلاقيات البيانات، والتأكد من مدى جدوى الخطط الموضوعة لمواجهة إخفاقات الأنظمة الذكية، وقياس مدى فاعلية تقييم المخاطر والأدوات المستخدمة لكشف تحيز الأنظمة، مع أهمية تضمين مساءلة الذكاء الاصطناعي في المنظمات والمؤسسات. جاء ذلك خلال «حوار تريندز الرابع» الذي دار حول «مستقبل الذكاء الاصطناعي المسؤول»، ونظمه مركز تريندز للبحوث والاستشارات، أمس الأول الثلاثاء، في مقره بأبوظبي، استضاف خلاله الدكتور سعيد الظاهري مدير مركز الدراسات المستقبلية في جامعة دبي، وأدارت الحوار موزة المرزوقي الباحثة في «تريندز»، وجاء الحوار ضمن جهود «تريندز» لنشر العلم واستشراف المستقبل بالمعرفة.

مسؤوليات ومخاطر
واستهلت أعمال الجلسة الحوارية موزة المرزوقي بكلمة ترحيبية ألقتها نيابة عن الدكتور محمد عبدالله العلي، الرئيس التنفيذي للمركز، مؤكدة أن الذكاء الاصطناعي المسؤول يتم تصميمه واستخدامه لتمكين المؤسسات والمنظمات والشركات والموظفين من التأثير بشكل عادل ومسؤول على العملاء والمجتمعات، حيث خلق فرصاً وأوجد حلولاً مبتكرة وغير مسبوقة، ولكنه جلب أيضاً مسؤوليات كبيرة ومخاطر كثيرة.
وذكرت المرزوقي أن هناك العديد من التحديات التي يواجهها الذكاء الاصطناعي في استشراف المستقبل، حيث تنطوي نظم الذكاء الاصطناعي على إخفاقات ومخاطر تتطلب ضرورة التأكد من أخلاقيات الأنظمة الجديرة بالثقة، وبناء وتفعيل الذكاء الاصطناعي المسؤول والدقيق، موضحة أن ضمان عمل الأنظمة الذكية بشكل أخلاقي وبشفافية ونزاهة مهم لصون الخصوصية وتحقيق الأمن الرقمي، مضيفة أن بعض إخفاقات الذكاء الاصطناعي كانت بسبب خطأ الحوكمة والرقابة والمخاطر المرتبطة بتطوير ونشر الذكاء الاصطناعي.

مراجعة الذكاء الاصطناعي
وأوضح الدكتور سعيد الظاهري أن الحكومات والدول والمنظمات والمؤسسات أصبحت مطالبة بضرورة إعادة النظر ومراجعة أنظمة وتطبيقات الذكاء الاصطناعي، لا سيما بعد أن أصبح الذكاء الاصطناعي جزءاً جوهرياً من تطوير الحلول ولديه القدرة على المساعدة في مواجهة بعض أصعب التحديات والعقبات التي يواجهها العالم، فيما يجلب في الوقت نفسه الكثير من المخاطر التي يجب معالجتها من أجل الحصول على الثقة اللازمة في هذه الأنظمة.
وبين أن التطور الهائل الذي يشهده الذكاء الاصطناعي وعلم الخوارزميات والحواسيب يحتم التأكد من مدى حيادية ومسؤولية تطبيقات الذكاء الاصطناعي، وذلك يتم عبر تكاتف الجهود بين الدول والمتخصصين والمطورين والباحثين والمستخدمين أيضاً، للتأكيد على حيادية ودقة الأنظمة والتطبيقات.
 
بناء الثقة
وذكر الدكتور الظاهري أن علم الخوارزميات أصبح يخدم تخصصات كثيرة، منها الصحة والتعليم والترفيه وغيرها، كما تقوم الخوارزميات بالترجمة، إذ نجحت في إزالة الحواجز بين اللغات والشعوب والثقافات، ودخلت أيضاً في المجالات الاقتصادية والإبداعية، ما يؤكد أن الذكاء الاصطناعي وعلم الخوارزميات أصبح جزءاً لا يتجزأ من الحياة اليومية، ولكن يجب علينا فهم كيفية عمل هذه التطبيقات ومدى صحة قراراتها واقتراحاتها. ونوه بأن الذكاء الاصطناعي يمكن أن يشكل تهديدات كثيرة في حال استخدامه سلبياً، ولكنه لن يدمر العالم، بل إن عدم المسؤولية ورعونة الأشخاص هي التي ستدمر العالم؛ ما يجعل من بناء الثقة في أنظمة الذكاء الاصطناعي عاملاً محورياً ومهما في إنشاء الأنظمة والتطبيقات الذكية.

إخفاقات تكنولوجية
واستعرض مدير مركز الدراسات المستقبلية في جامعة دبي بعض إخفاقات أنظمة الذكاء الاصطناعي، حيث شخّصت بعضها علاجات خاطئة لمرضى السرطان، كما كانت هناك إخفاقات عدة في أنظمة السيارات ذاتية القيادة، ووسائل التسوق الرقمي، وأنظمة عمل شركات التكنولوجيا العالمية، وهذه الإخفاقات التكنولوجية خطيرة للغاية، كما أن أنظمة الذكاء الاصطناعي التي كانت تستخدم لرعاية الأطفال في إحدى الدول أصبحت تحدد المواليد بناء على تصنيفات عرقية وعنصرية، ما يعزز من ضرورة وضع سياسات وتشريعات وإطار عمل شامل لتحديد مسؤولية عمل هذه الأنظمة، مع أهمية الإشراف البشري على عملها.

تخفيف المخاطر
وأوضح الدكتور الظاهري أن أنظمة الذكاء الاصطناعي سجلت 1200 إخفاق بحلول عام 2020، مبيناً أن 10% فقط من المنظمات والمؤسسات والشركات قد وضعت إجراءات لتخفيف مخاطر أنظمة الذكاء الاصطناعي، ولكن 1% فقط من هذه الإجراءات كانت فعالة ومجدية في مواجهة إخفاقات الخوارزميات، ما يجعل إعادة النظر في تقنيات الذكاء الاصطناعي ضرورة كي لا تفقد المجتمعات الثقة في الأنظمة الذكية. وشدد على ضرورة التأكد من تطبيق تقنيات الذكاء الاصطناعي بمسؤولية، إلى جانب تطبيق مبادئ أخلاقية بشكل سليم وفعال.

إضافة إلى دعم المواهب وتدريبها على أخلاقيات الذكاء الاصطناعي لضمان حيادية نتائج هذه الأنظمة والتطبيقات، مع أهمية ضمان عدم انحيازية هذه التقنيات، والتأكد من عدالة وشفافية الذكاء الاصطناعي، كما يجب امتلاك الأدوات لتحليل كيفية وصول هذه الأنظمة إلى اتخاذ القرار، لتدارك النتائج الخاطئة والسلبية؛ ما يضمن وجود أنظمة آمنة ومسؤولة تصون الخصوصية والأمن.
وأكد الدكتور سعيد الظاهري أن عدم دقة وموثوقية البيانات تجعل بناء أنظمة ذكاء اصطناعي مسؤول عملية مستحيلة، حيث يجب على أنظمة الذكاء الاصطناعي العمل على تحقيق رفاهية ومصلحة المجتمع، مع ضرورة مساءلة المنظمات المشغلة للأنظمة وإجراء تقييم دوري لأداء التطبيقات وصحة قراراتها، وتطوير الإرشادات وتحديث الإجراءات الرقابية على عمل أنظمة الذكاء الاصطناعي.

قواعد بناء الأنظمة
وحول قواعد بناء أنظمة الذكاء الاصطناعي المسؤول وتطبيق أنظمة الحوكمة، قال الظاهري إن تعزيز ثقافة الثقة في المؤسسة أو المنظمة التي تعمل على بناء الأنظمة والتطبيقات وتغذيتها بالبيانات ضروري لإنشاء أنظمة آمنة ومسؤولة، مع التأكيد على تطبيق أخلاقيات البيانات والتأكد من مدى جدوى الخطط الموضوعة لمواجهة إخفاقات الأنظمة الذكية، إضافة إلى تدقيق ومراجعة البيانات والتطبيقات والأنظمة الذكية، وقياس مدى فاعلية تقييم المخاطر والأدوات المستخدمة لكشف تحيز الأنظمة، مع أهمية اتباع وتطبيق المصفوفات الشاملة ومراقبة تصرفات الأنظمة كي لا تتعلم سلوكيات سيئة، مشدداً على ضرورة الإشراف والمراقبة الدقيقة من علماء البيانات على الأنظمة والتطبيقات، وتضمين مساءلة الذكاء الاصطناعي في المنظمات والمؤسسات.
 
مستقبل الذكاء الاصطناعي
وأشار الدكتور سعيد الظاهري مدير مركز الدراسات المستقبلية في جامعة دبي إلى أن مستقبل الذكاء الاصطناعي يحتاج إلى تطوير أدوات فعالة لاستشراف المستقبل، واتباع طرق ناجعة حيال استخدام البرمجيات، مع ضرورة وجود منهجية شاملة تركز على المجتمع وتؤكد على أخلاقية ومسؤولية الأنظمة، متوقعاً صعود عمليات إنشاء البيانات المركبة والهجينة عبر علم الخوارزميات، حيث سيصل الاعتماد عليها إلى 60% بحلول العام 2024، في ظل الافتقار للبيانات المحدثة والكاملة وعالية الجودة.
وحول القواعد الرئيسية للرخصة الاجتماعية لاستخدام الذكاء الاصطناعي، ذكر الظاهري أن هناك ثلاثة قواعد هي: (المسؤولية، والقيم المجتمعية، والعقد الاجتماعي الذي يقيس مدى تقبل المجتمعات للأنظمة والتطبيقات من عدمه)، ناصحاً الأفراد والمجتمعات بضرورة التعرف إلى مخاطر الذكاء الاصطناعي، كما يجب عليهم طرح الأسئلة دائماً لفهم الخوارزميات وكيفية وصولها إلى التنبؤات والقرارات التي تتخذها أنظمة الذكاء الاصطناعي.