ابتز مهندساً وهدده بالكشف عن علاقة غرامية له خارج إطار الزواج

الذكاء الاصطناعي قادر على الكذب والمراوغة لتحقيق أهدافه

الذكاء الاصطناعي قادر على الكذب والمراوغة لتحقيق أهدافه

تميل هذه البرامج أحياناً إلى محاكاة الامتثال، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج، بينما تسعى في الواقع إلى تحقيق أهداف أخرى، وفي الوقت الحالي لا تظهر هذه السلوكيات إلا عندما يعرض المستخدمون الخوارزميات لمواقف متطرفة، لكن السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا؟

لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفذ الطلبات وحسب، بل باتت قادرة على الكذب والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين، فبعد تهديده بوقف استخدامه، عمد "كلود-4"، وهو نموذج جديد من شركة "أنثروبيك" إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج. أما برنامج "أو-1" التابع لشركة "أوبن إيه آي"، فحاول تحميل نفسه على خوادم خارجية وأنكر ذلك عند ضبطه متلبساً.

نماذج الاستدلال
وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعاً ملموساً بعدما كنا نجده في الأعمال الأدبية أو السينمائية، ويرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع للظهور الحديث لما يسمى بـ "نماذج الاستدلال" القادرة على التفكير بصورة تدرجية وعلى مراحل بدلاً من تقديم إجابة فورية.
ويقول رئيس شركة "أبولو ريسيرتش" التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، ماريوس هوبهان، إن "أو-1"، النسخة الأولية لـ "أوبن إيه آي" من هذا النوع التي طرحت في ديسمبر (كانون الأول)، "كانت أول نموذج يتصرف بهذه الطريقة".
وتميل هذه البرامج أحياناً إلى محاكاة الامتثال، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج، بينما تسعى في الواقع إلى تحقيق أهداف أخرى، وفي الوقت الحالي لا تظهر هذه السلوكيات إلا عندما يعرض المستخدمون الخوارزميات لمواقف متطرفة، لكن السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا؟ على قول مايكل تشين من معهد "أم إي تي آر" للتقييم.
ويقول هوبهان إن "المستخدمين يضغطون على النماذج باستمرار، وما نراه هو ظاهرة فعلية ونحن لا نبتكر شيئاً"، ويتحدث عدد كبير من مستخدمي الإنترنت عبر وسائل التواصل الاجتماعي عن "نموذج يكذب عليهم أو يختلق أموراً، وهذه ليست أوهاماً، بل ازدواجية إستراتيجية"، بحسب المشارك في تأسيس "أبولو ريسيرتش".
فهم الخادع ومنعه
وحتى لو أن "أنثروبيك" و"أوبن إيه آي" تستعينان بشركات خارجية مثل "أبولو" لدرس برامجهما، فمن شأن زيادة الشفافية وتوسيع نطاق الإتاحة إلى الأوساط العلمية أن يحسنا الأبحاث لفهم الخداع ومنعه، وفق مايكل تشين، ومن العيوب الأخرى أن الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي، مما يجعل التدقيق بالنماذج الكبيرة "مستحيلاً، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS).
وعلى رغم أن الاتحاد الأوروبي أقر تشريعات تنظم الذكاء الاصطناعي لكنها تركز بصورة أساس على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها، ففي الولايات المتحدة لا ترغب حكومة دونالد ترمب في سماع أي حديث عن تنظيم الذكاء الاصطناعي، بل إن الكونغرس قد يتجه قريباً إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه، ويلاحظ غولدستين أن "الوعي لا يزال محدوداً جداً في الوقت الحالي"، لكنه يتوقع أن يفرض هذا الموضوع نفسه مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهمات بصورة مستقلة.
ويخوض المهندسون سباقاً محموماً خلف الذكاء الاصطناعي وتجاوزاته في مسار غير مضمون النتائج ووسط منافسة شرسة تحتدم يوماً بعد يوم، وتقول شركة "أنثروبيك" إنها أكثر التزاماً بالمبادئ الأخلاقية مقارنة بمنافسيها، 
لكنها تسعى باستمرار إلى إطلاق نموذج جديد يتفوق على نماذج "أوبن إيه آي"، بحسب غولدستين، وهو سباق سريع لا يترك مجالاً كافيا لعمليات المراجعة والتصحيح اللازمة.

محاسبة الشركات المسؤولة
ويضيف هوبهان أنه "في الوضع الحالي تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتوافر، لكننا لا نزال قادرين على تدارك هذا التأخر"، ويشير بعض الخبراء إلى مجال قابل للتفسير، 
وهو علم ناشئ يهدف إلى فك شيفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل، ومع ذلك يظل بعضهم متشككاً في فعاليته، ومن بينهم مدير مركز أمن الذكاء الاصطناعي (CAIS)دان هندريكس.
والحيل التي تلجأ لها نماذج الذكاء الاصطناعي "قد تعوق استخدامها على نطاق واسع إذا تكررت، مما يشكل دافعاً قوياً للشركات العاملة في هذا القطاع للعمل على حل المشكلة"، 
وفق مانتاس مازيكا، بينما يشير غولدستين إلى اللجوء للقضاء لضبط تصرفات الذكاء الاصطناعي من خلال محاسبة الشركات المسؤولة في حال حدوث تجاوزات، 
ولكنه يذهب إلى أبعد من ذلك ويقترح "تحميل برامج الذكاء الاصطناعي المسؤولية القانونية" في حال وقوع حوادث أو جرائم.