مقالات

كيف ينجو الإعلام من هجمة الذكاء الاصطناعي؟

 د. ياسر عبد العزيز
كصحافي؛ بات بإمكاني أن أعزّز قدرتي على ممارسة عملي بالاستفادة من تجلّيات الذكاء الاصطناعي المُذهلة والفريدة والآخذة في التطور، لكن هذا الخبر الجيد لم يعد قادراً على الصمود أمام جملة من الأخبار السيئة، التي تحوط عالم هذا الذكاء، وتكرّسه مصدر تهديد جدي للإعلام.
فكما هو معروف، إن توافر قدر معين من الثقة في المنتجات الإعلامية، لجهة مصداقيتها على الأقل، يُعد عاملاً جوهرياً في استدامة الصحافة ووفائها بمهمتها الأساسية، التي هي سبب وجودها؛ لكن ما تفعله منتجات الذكاء الاصطناعي التوليدي، خصوصاً في هذا الصدد، يلقي بظلال قاتمة على مستقبل هذه المهنة والصناعة، عبر تصدير المزيد من الضغوط على عامل الدقة.
لقد تغيّرت أساليب تعرّضي للمادة الإعلامية عبر الوسائط «التقليدية» و«الجديدة» تغيراً فارقاً في فورة ازدهار مساهمات الذكاء الاصطناعي في العمل الصحافي. ومن بين شواهد هذا التغير، أن كثيراً من الإفادات والصور والفيديوهات، الواردة عبر منصات «السوشيال ميديا» خصوصاً، باتت محل شك أكبر، وكثيراً من المعلومات الصحيحة أضحت محل نقض، في حين أن بعض المعلومات المُختلقة غدت أقرب للتصديق.
إن تلك التطبيقات، التي يجري تطويرها بشغف، كما تُطور هي أنظمتها ذاتياً بدأب شديد، تجترح كل ساعة جديداً، وتزيد حصتها في إنتاج المحتوى الإعلامي والإبداعي باطراد وبكثافة، حتى إن بعض الخبراء توقع أن يكون نحو 90 في المائة مما نستهلكه من أخبار ومنتجات إعلامية من عمل تلك الآلات خلال سنوات قليلة.
وفي الأسبوع الماضي فقط، نُشرت صورة من منتجات الذكاء الاصطناعي لانفجار في مقر وزارة الدفاع الأميركية (البنتاغون). وبسبب التعقيد الذي انطوت عليه عملية صنع تلك الصورة، ومضاهاتها الكبيرة للصور الصحيحة، فإن كثيرين صدقوها، وهو الأمر الذي أدى إلى تراجع سريع في بورصة نيويورك، أفضى إلى خسارة ملايين الدولارات، كما حمل «البنتاغون» على إصدار نفي رسمي.
وبموازاة ذلك، انتشرت صورة تظهر الرئيس الأميركي السابق دونالد ترمب رهن الاعتقال، وصورة أخرى تظهر البابا فرنسيس في زيٍّ غير مُعتاد، وهما صورتان مزيّفتان عبر تطبيقات الذكاء الاصطناعي، وحظيتا بتصديق البعض، وفتحتا الباب أمامنا لنفكر مليّاً في الارتدادات المتوقعة على العمل الصحافي والمنتجات الإعلامية في ظل تطوّرات هذا الذكاء.
لقد أضحى الذكاء الاصطناعي أحد أهم العناوين التي تظهر في المنتجات الإعلامية عبر العالم اليوم، كما بات مرتبطاً بالكثير من جوانب حياتنا السياسية والأمنية والاجتماعية والاقتصادية والصحية والثقافية، وفي كل تقاطع بينه وبين أحد تلك المجالات تنشأ مشكلات ويجري الحديث عن مخاطر. ولذلك، فقد كان مفهوماً كيف يجتمع جيفري هنتون (عرّاب الذكاء الاصطناعي) مع سام ألتمان مدير شركة «أوبن إيه آي» التي أطلقت «تشات جي بي تي»، مع إيلون ماسك، وستيفن هوكينغ، وبيل غيتس، ومئات من الخبراء والمشرّعين ورجال صناعة التكنولوجيا في العالم، والبرلمانات والحكومات والمنظمات الإقليمية والدولية، على تحذيرنا من مخاطر هذا الذكاء، واحتمالات تهديده للوجود البشري، والمطالبة بضرورة وضع ضوابط.
سيكون مصطلح «وضع ضوابط» هو المصطلح الأكثر ترديداً في المستقبل المنظور إزاء هذا التطور الجارف. وستجتهد الحكومات والبرلمانات والشركات لوضعه موضع التنفيذ، لكن هذه المقاربة ستكون بطيئة كما هي العادة، ولن تفلح في مجاراة التطور الكبير اللاهث لتطبيقات الذكاء الاصطناعي أو ملاحقتها.
على الصعيد الإعلامي، يجب أن تُتخذ إجراءات سريعة قبل أن تنجح تلك التطبيقات في إرسال المزيد من الصحافيين إلى منازلهم، وإغراق المجال الإعلامي بالأخبار المُضللة والصور المزيفة والفيديوهات المُختلقة، والسطو على حقوق الملكية الفكرية، وتقويض عالم الصحافة عبر تجريد منتجاته من الحد الأدنى اللازم من الثقة.
ومن بين تلك الإجراءات، أن تجتهد الهيئات الضابطة المُنظمة لصناعة الإعلام في سن قواعد تنظيمية خاصة باستخدام منتجات الذكاء الاصطناعي في العمل الصحافي، وأن تضيف هيئات التنظيم الذاتي، والنقابات، وجمعيات الصحافة، إلى أدلة العمل الإعلامي ومواثيق الشرف و«أكواد» الممارسة أجزاء جديدة تختص بالتعامل مع منتجات هذا الذكاء. ولن تكتمل هذه المقاربات التشريعية والتنظيمية إلا عبر إقرار قواعد محددة لحماية حقوق الملكية الفكرية، وغلّ أيدي تلك التطبيقات والقائمين عليها عن استباحة الحقوق الأدبية.
وسيكون من المُهم أن تنطوي تلك المقاربات التنظيمية والتشريعية على مبدأ واضح وأساسي، يُلزم مستخدمي تلك التطبيقات في إنتاج المواد الصحافية والإبداعية المنتشرة عبر «الميديا» بأنواعها، بوضع علامةٍ ما، يفهم منها كل مستخدم أن ذلك المُنتج أُعد بواسطة الذكاء الاصطناعي، أو بمعاونته، وهذا أضعف الإيمان.
 الشرق الأوسط

الحياة العربية

يومية جزائرية مستقلة تنشط في الساحة الاعلامية منذ سنة 1993.

مقالات ذات صلة

زر الذهاب إلى الأعلى