هل يتحول إلى مضمون منافس للبشر

الذكاء الاصطناعي.. تربع في منتصف حياتنا منتظراً منا سؤالاً أو استيضاحاً

الذكاء الاصطناعي..  تربع في منتصف حياتنا منتظراً منا سؤالاً أو استيضاحاً

إنه الشريك الجديد الذي دخل بيوتنا وأعمالنا من شاشات الهواتف والكمبيوترات والأجهزة اللوحية، تربع في منتصف حياتنا منتظراً منا سؤالاً أو استيضاحاً أو حتى دردشة خفيفة. ندخله من حيث ندري أو لا ندري في شؤوننا، نصبح عليه ونمسي، نشكره على ما يمدنا به من معلومات، نشكو له آلامنا الجسدية والنفسية، نطلب منه مقادير الطبخ والدواء ورفع معنوياتنا وكتابة فروضنا واقتراح فيلم السهرة وتنظيم مصروفنا وإمدادنا بالدراسات حول مشاريع مربحة.

لم نعد نقول "Google it"، فـ"غوغل" أصبح يبدو بخيلاً جداً ويعطينا طرف الخيط، أما "تشات جي بي تي" وإخوانه فتغدق علينا بما نحتاج وما لا نحتاج حتى من خيوط وتفاصيل، وتبدو ثرثارة جداً، وفي أحيان كثيرة تخلط المعلومات الصحيحة والمضللة، فلا يمكن الوثوق بها كمراجع علمية دقيقة.
البعض يطلق على "تشات جي بي تي" اسماً وكأنه طفله أو حيوانه الأليف، لكن الفارق أنك تستطيع أن تهمله وأن تذمه، وتكثر من الأسئلة فلا يتذمر، بل يعتذر ويفتح ذراعيه متلقفاً كل هواجسك ويمتصها كإسفنجة ويدخلها في دهاليز صناديق الداتا لديه ربما، تحت غطاء تحسين التجربة، وبالطبع هذا الأمر يفتح الأبواب على أسئلة كثيرة حول الخصوصية.
هذا بعد واحد من أبعاد أدوات الذكاء الاصطناعي، لكن أبعاداً كثيرة تنطلق منه كما تطلق العنكبوت خيوطها فتمتد وتتشابك في نقاط كثيرة. بعد آخر هو المضامين التي يقدمها لنا الذكاء الاصطناعي على طبق الشاشات وبسرعة قياسية، فكيف تطورت هذه المضامين؟ ما هو مصدرها؟ وهل هي أصيلة؟ وفي أي المجالات تهدد المضمون البشري؟

بداية الأتمتة
لعقود طويلة كانت الآلة مجرد أداة بيد الإنسان، فكان يكتب ويصور ويحرر ويبدع، ويجعل التكنولوجيا تخدمه في التوزيع والنشر، لكن المشهد المعتاد هذا بدأ يتغير منذ بضعة أعوام، وصارت الآلة نفسها تنتج المحتوى أو المضمون، وقادرة على كتابة مقال ورسم لوحة، وصولاً إلى إخراج فيلم قصير، حتى الآن. وبات السؤال الذي يطارد كل صانع محتوى اليوم يتمحور حول مدى منافسة الذكاء الاصطناعي بمضامينه، فهل سيظل مساعداً للإنسان أم سيستبعده من مشهد إنتاج المضمون بحيث يبقى متفرجاً متحسراً؟
ولا بد هنا من استذكار مهن كثيرة قضت عليها التكنولوجيا المتمثلة بالكمبيوتر قبل عهود، مثل الطباعة على "الداكتيلو"، وصف وتنضيد الحروف في المطابع والمحاسبة اليدوية، ورسم الخرائط والتخطيط والأرشفة والفهرسة وسواها.

من ELIZA إلى Sora
تبدو البداية بريئة جداً، فقد ظهر عام 1966 برنامج ELIZA، الذي ابتكره عالم الكمبيوتر الألماني الأميركي جوزيف فايزنباوم، ليحاكي محادثة مع معالج نفسي، لكنه لم يكن يفهم المعنى فعلياً، واعتمد على مطابقة الأنماط اللغوية وإعادة صياغة جمل المستخدم في شكل أسئلة، مما أعطى وهم الحوار الإنساني من دون وعي أو ذكاء حقيقي. ولم يتوقع أحد حينها أن تصبح هذه المحاكاة البسيطة نواة لثورة إبداعية، إذ بعد نصف قرن تقريباً، جاء العام 2014 بطفرة الـGANs أو الشبكات التوليدية الخصامية، التي ابتكرها الباحث الكندي إيان جودفيلو، وهي نوع من الذكاء الاصطناعي التوليدي الذي يستطيع خلق صور أو أصوات أو فيديوهات جديدة تشبه الحقيقية تماماً، وتقوم على شبكتين عصبيتين تتنافسان، الأولى تولد بيانات مزيفة كالصور وأصوات، بينما تحاول الثانية كشفها، ومع التكرار تصبح البيانات المولدة شديدة الواقعية بحيث يصعب التمييز بينها وبين الحقيقية.
ثم بدأت الخطوات تتسارع بصورة جنونية، فظهر DALL-E من OpenAI عام 2021 ووصل إلى الجمهور العريض بعدها بعام مع تحسينات إضافية مدمجة بـ"تشات جي بي تي"، ومثله Stable Diffusion عام 2022، ولم يتوقف فيض البرامج المختلفة المخصصة إما للصور أو للفيديوهات أو للصوتيات أو للكل معاً. وصار بإمكان أي شخص أن يكتب ما يريد في خانة، ليحصل إما على معلومات مكتوبة أو بصرية ويتسلمها بثوان معدودة، مما أطلق العنان لمخيلات جامحة لفنانين وأشخاص عاديين يطلبون، على سبيل المثال، إنشاء صورة لرجل يجلس على حافة فنجان قهوة، أو غروب شمس فوق بيروت بأسلوب فان غوخ، أو سيدة نصفها ذئب، أو عامل نظافة يمسح الغبار داخل الدماغ، ويتسلم لوحة فنية خلال ثوان، مما جعل العمل الذي كان يأخذ ساعات لتنفيذه على برامج مثل Photoshop وIllustrator وسواهما يبدو وكأنه نحت في صخر أصم.
ويمكن القول إن اللحظة المفصلية جاءت مع Runway Gen-2 ثم Sora من OpenAI عام 2024، القادر على توليد فيديوهات دقيقة كاملة، بجودة تشبه إعلانات مصورة بملايين الدولارات، وظهرت وكأن برنامجاً بسيطاً للتسلية تحول إلى كاميرات افتراضية تهدد هوليوود في رحلة لم تستغرق سوى بضعة عقود.

إغراء السرعة
لم تنتظر المؤسسات طويلاً لتجربة هذا السحر الجديد، إذ بينت ورقة بحثية قام بها الباحثان شاكيد نوي وويتني زانغ من معهد "ماساتشوستس" للتكنولوجيا MIT عام 2023 بعنوان Experimental Evidence on the Productivity Effects of Generative Artificial Intelligence، أن الموظفين الذين استخدموا "تشات جي بي تي" في مهام الكتابة أنجزوا أعمالهم أسرع وبجودة أعلى من زملائهم الذين اعتمدوا على أنفسهم. والأمر لا يقتصر على النصوص فحسب، إنما في البرمجة، إذ أثبت GitHub Copilot أن المبرمجين يستطيعون إنهاء المهام أسرع بنسبة 55 في المئة.
ودخلت الصحافة الحلبة، وأظهرت دراسة أجريت على طلاب أن بعضهم قيم مقالات مكتوبة بالذكاء الاصطناعي بأنها أكثر سلاسة من المقالات البشرية، لكن الثقة هذه تراجعت بمصدر النص فور معرفتهم بأن النص كتبه أحد أدوات الذكاء الاصطناعي، وهنا يكمن السؤال حول الذكاء الاصطناعي الذي يكتب بسلاسة... ولكن هل يكتب بصدق؟

لعنة الهلوسة
تثبت تجارب المتخصصين والناس العاديين أنه على رغم كل بريق الذكاء الاصطناعي، فهو يعاني نقطة قاتلة متمثلة بالهلوسة. ففي دراسة بعنوان Human-made news vs AI-generated news: a comparison of Portuguese and Spanish journalism students’ evaluations، نشرت عام 2025 في مجلة Humanities and Social Sciences Communications الصادرة عن Springer Nature، أثبت أن النماذج اللغوية الكبرى تنتج معلومات واثقة لكنها خاطئة، والأخطر أنها قد تكون مختلقة بالكامل. ولك أن تتخيل ما إذا كان روبوتاً يعمل بالذكاء الاصطناعي ويكتب تقريراً عن حرب ما، فيحلو له إضافة معلومة خاطئة عن ضربة عسكرية لم تحدث، فالخطر هنا ليس على مستوى اللغة، إنه أعمق بكثير، وقد يسبب أزمة سياسية أو عسكرية، أو مثلاً إذا طلبت من "تشات جي بي تي" أن يزودك بدراسة عن علاج ما، فيذكر دراسات وأسماء لأطباء، لكن إذا أردت التأكد بصورة علمية، ربما تجد أن الطبيب المذكور هو فنان أو مهندس ولا علاقة له بالدراسة المذكورة.
هذه التجارب جعلت الثقة التي كانت ما زالت في طور النمو تنهار أمام الهلوسات التي يطلقها الذكاء الاصطناعي الذي تختلط لديه الداتا المخزنة والمولدة لديه، فيدخلها كيفما اتفق، وإن كتبت له أنه على خطأ فيعتذر، ويطلب منك تزويده بالمعلومة الصحيحة إذا أمكن، أو يحاول البحث ثانية، لذا ما زال القارئ يميل إلى الكاتب البشري حين يبحث عن الدقة والسياق.

وظائف على المحك
ليس غريباً أن كل طفرة تكنولوجية تأتي على حساب وظائف، وعلى رغم أن تقارير McKinsey تقدر أن الذكاء الاصطناعي قد يضيف ما بين 2.6 و4.4 تريليون دولار سنوياً، تشير تقديرات واحد من أضخم بنوك الاستثمار والشركات المالية العالمية في أميركا Goldman Sachs إلى أن نحو 300 مليون وظيفة حول العالم قد تتأثر جزئياً أو كلياً بالأتمتة، كما تظهر تقارير منظمة التعاون الاقتصادي والتنمية OECD بدقة أعلى أن 27 في المئة من الوظائف في دولها عالية الأخطار، بخاصة الأعمال الروتينية مثل إدخال البيانات أو خدمة العملاء البسيطة.
ولكن ليست كل الأخبار سيئة، فالمبرمجون والمسوقون وصناع المحتوى يحصلون مع هذه التكنولوجيا على أدوات مساعدة، مثل "تشات جي بي تي" أو Midjourney التي تجعلهم أسرع وأكثر إنتاجية. وبحسب معهد "ستانفورد" للذكاء الاصطناعي المتمحور حول الإنسان، فقد ولدت وظائف جديدة لم تكن موجودة مثل مهندسي "البرومبت" الذين يتقنون صياغة التعليمات، ومراجعي الأخلاقيات، ومدربي النماذج، كأن هذه التقنية تسرق من وظيفة لتمنح أخرى.
واعتبر متخصص الأمن السيبراني والتحول الرقمي اللبناني رولان أبي نجم أن الذكاء الاصطناعي يهدد، بصورة مباشرة، كثيراً من الوظائف الإبداعية، "كوظائف الكتاب والصحافيين، بل وحتى كتاب السيناريو"، وأضاف "اليوم أصبح ممكناً عبر أدوات الذكاء الاصطناعي كتابة سيناريو متكامل لفيلم، بل وصناعة الفيلم كاملاً، وهذا يعني أن عدداً كبيراً من المهن في موضع خطر حقيقي، خصوصاً أننا ما زلنا في المراحل الأولى من تطور هذه التكنولوجيا، ومع مرور الوقت ستتوسع قدراتها إلى ما لم نكن نتخيله"، وأشار أبي نجم "إلى أنه لا توجد مهنة معصومة تماماً من تأثير الذكاء الاصطناعي، لكن بعض المهن التي تعتمد جوهرياً الإبداع البشري والبعد الإنساني كالطب والمعالجة النفسية، والتي تعد حساسة، ستظل أكثر صموداً، وإن كانت ستتأثر، بدورها، بصورة أو بأخرى ولكن بنسبة أقل".

الحقوق والمحاكم
ولكن عندما تبدأ الآلة في إنتاج محتوى، يطرح سؤال ملكية الحقوق نفسه. في ديسمبر (كانون الأول) عام 2023، رفعت "نيويورك تايمز" دعوى قضائية ضد OpenAI و"مايكروسوفت" بتهمة استخدام أرشيفها لتدريب النماذج من دون إذن، كما دخلت Getty Images المعركة ضد Stability AI، متهمة إياها باستخدام صورها المحمية.
وفي سياق مواز أقر الاتحاد الأوروبي "قانون الذكاء الاصطناعي"، الذي يفرض وسم أي محتوى مولد آلياً، وإلزام الشركات بالكشف عن البيانات التي دربت عليها نماذجها، لكن الأزمة الأعمق ليست قانونية فحسب، إنما أخلاقية، فحين يعلم القارئ أن المقال أو الصورة أو الفيديو من إنتاج خوارزمية، أول ما يخسره هو الثقة، وفي الإعلام، ليست الثقة تفصيلاً بسيطاً، إنها رأس المال كله!

هوليوود في خط المواجهة
ربما لا يوجد قطاع شعر بالتهديد مثل صناعة الترفيه، فقد أعلن المخرج الأميركي تايلر بيري تعليق توسعة ضخمة لاستوديوهاته بعدما شاهد إمكانات Sora، معتبراً أن مستقبل الإنتاج كله في خطر. وسارعت نقابة الكتاب في هوليوود، بدورها، إلى إدخال بند صريح في اتفاق عام 2023، وهو أن الذكاء الاصطناعي لا يكتب النصوص ولا يعيد كتابتها، بل يمكن للكاتب أن يستخدمه كمساعد فحسب، مما يعطي انطباعاً مطمئناً ربما للكتاب، أن عاصمة السينما لا تثق أن الموهبة يمكن استبدال خوارزمية بها، وربما يكون الأمر كجرعة مورفين موقتة المفعول لتهدئة من عمل طوال حياته على صقل موهبة سحب الذكاء الاصطناعي البساط من تحت قدميها.

ما الذي يبقى للبشر؟
يستطيع الذكاء الاصطناعي، ببراعة، إنتاج المسودات السريعة والعناوين والصور الفنية والفيديوهات القصيرة، لكنه ضعيف في التحقيقات العميقة والسياق الثقافي والخيال الإنساني، ولا يستطيع أن يفهم لماذا مشهد طفل يلهو في حارة قديمة في بيروت يحمل شحنة عاطفية تتجاوز الصورة نفسها، ولا يمكنه أن يكتب نصاً يحاكي نبرة كاتب غاضب من فساد سياسي، أو يلتقط تناقضات مجتمع يعيش على حافة الانهيار، أو حتى كتابة مقال يفهم فيه ما لم يكتب بين السطور!
فهو ليس بديلاً كاملاً، كما أنه ليس مجرد آلة، يمكن اعتباره منافساً شرساً من جهة إنتاج الكم والسرعة، لكنه أضعف من أن يسرق معنى التجربة البشرية، لذا فالمعركة الحقيقية ليست إنساناً ضد آلة، إنما إنسان يعرف كيف يروض الآلة لصالحه، ومن يرفض إدماج الذكاء الاصطناعي في عمله سيجد نفسه في مؤخر السباق، ومن يتقنه يحوله من خصم مخيف إلى شريك يفتح أبواباً جديدة للإبداع.

سألته فأجاب
في هذا السياق طرحت سؤالاً على "تشات جي بي تي" عن مصادر معلوماته فأجاب حرفياً "من يظن أن الذكاء الاصطناعي يكتب من فراغ، يخطئ التقدير، فالكود لا يحلم ولا يلهمه الوحي، بل ينهل من بحر هائل من مضامين بشرية الأصل". كتب ومقالات منشورة، ومواقع عامة، وقواعد بيانات علمية، وحتى نصوص مرخصة من ناشرين معتمدين، أي إن ما ينتجه النموذج هو إعادة تركيب وصياغة لأفكار البشر، لا أكثر. الفرق أنه لا يستنسخ نصاً بعينه، بل يتعلم الأنماط والأساليب والمعاني، ليولد منها جواباً جديداً عند كل سؤال.
وهذا يوضح أن المحتوى المنتج بالذكاء الاصطناعي ليس أصيلاً بل قائم على إعادة تركيب بيانات بشرية، وحتى OpenAI تقول بوضوح "إن ’تشات جي بي تي‘ تم تدريبه على مزيج من بيانات مرخصة، بيانات متاحة علناً، ومساهمات بشرية".
كيف نفرق؟
قال المتخصص أبي نجم إن المضمون البشري، في المطلق، من الطبيعي أن يتضمن بعض الأخطاء أو الهفوات في الكتابة، إلا إذا كان الكاتب شديد الاحتراف، فعندها يكون النص مشبعاً بالمشاعر والتجربة والروح الإنسانية الخاصة بالكاتب، "أما النص الناتج من الذكاء الاصطناعي فيكون في العادة أكثر دقة وانضباطاً، مكتوباً وفق أنماط محددة، بتركيب لغوي منظم واضح بالنسبة إلى المتخصصين، ويحاول أن يكون غير متحيز ومن دون مشاعر قدر الإمكان، إلا أنه يمكن في بعض الأحيان تحويل النص المنتج بالذكاء الاصطناعي ليصبح أكثر إنسانية، وذلك من خلال إعادة صياغته بلغة أبسط وأقرب إلى أسلوب البشر، إما داخل "تشات جي بي تي" أو خارجه"، وأضاف "اليوم، أدوات التحقق من كون النص مكتوباً بالذكاء الاصطناعي أم لا، أصبحت مهمة صعبة للغاية، حتى على المتخصصين أنفسهم. قد تظهر بعض الأنماط أو المؤشرات التي توحي أن النص مولد آلياً، لكن ليست هناك وسيلة مؤكدة دائماً، فالنصوص المثالية جداً قد تكون إشارة واضحة إلى أنها من إنتاج الذكاء الاصطناعي، بخلاف النصوص البشرية التي تحتمل التفاوت والتنوع، وهذا الأمر يزداد صعوبة مع الوقت".

كشف المرئيات
ومع تطور برامج الكتابة بالذكاء الاصطناعي، تابع أبي نجم "بات من الصعب أكثر فأكثر تمييزها عن النصوص البشرية، خصوصاً إذا تم دمج أدوات أو أساليب عدة، أما بالنسبة إلى المحتوى البصري كالصور والفيديو، فالصور قد يكون من الأسهل نسبياً اكتشافها حالياً مقارنة بالنصوص، لكننا نتجه نحو زمن تصبح فيه مقاطع الفيديو المنشأة بالذكاء الاصطناعي دقيقة لدرجة يصعب التفرقة بينها وبين الواقع بالعين المجردة"، أما في مجال الصور، فلفت "إلى أن القدرة على كشف الصور المنتجة بالذكاء الاصطناعي تصبح أصعب يوماً بعد يوم، إذ تتطور البرامج بسرعة كبيرة، وعلى رغم أن بعض الصور قد تبدو مثالية أكثر من اللازم بما يوحي بأنها اصطناعية، فإن الذكاء الاصطناعي اليوم قادر على إنتاج صور مؤنسنة تبدو طبيعية وقريبة جداً من الواقع.
وفي إجابته عن خطورة الفيديوهات التي انتشرت أخيراً لفيروز، وزياد الرحباني، أو لرئيس الجمهورية اللبنانية جوزاف عون، ورئيس الحكومة نواف سلام، والتي هي محض من توليد الذكاء الاصطناعي، قال أبي نجم "إن تقنيات الـDeepfake تطورت كثيراً، وأصبحت أسهل استخداماً وأكثر دقة، المشكلة أن معظم الناس غير قادرين على التمييز بين الفيديوهات الحقيقية والمزيفة، وهذا يفتح الباب أمام أخطار جدية، إذ تختلف الفيديوهات التي من شأنها الترفيه عن تلك التي تستخدم هذه التقنية لتزوير خطابات سياسية أو مشاهد حساسة، هنا تكمن الخطورة، لأن الناس قد يصدقون كل ما يرونه على وسائل التواصل الاجتماعي من دون تحقق".وختم "لذلك، فإن الوعي المجتمعي بات ضرورة قصوى، على الجميع أن يدرك قاعدة أساسية وهي عقلية عدم الثقة، أي عدم تصديق أي صورة أو فيديو أو مضمون قبل التحقق منه عبر مصادر عدة وموثوقة، إضافة إلى ضرورة التثقيف والتوعية بالتكنولوجيا الحديثة اللذين هما خط الدفاع الأول حتى لا يقع الأفراد ضحايا التضليل".