التبني المسؤول لأدوات الذكاء الاصطناعي في غرف الأخبار

د. عباس مصطفى صادق



الذكاء الاصطناعي في الإعلام والترفيه (9)

من التجريب المبكر إلى التطبيقات المعاصرة، أدى الذكاء الاصطناعي دورًا محوريًّا في إعادة تشكيل المشهد الاتصالي برمته، وأثر على صناعات الإعلام والترفيه والإعلان، مما أدى إلى حالة تغيير انقلابية في طريقة إنشاء المحتوى وتوزيعه واستهلاكه ومشاركة الجمهور، علاوة على الجدل المثار في الجوانب المهنية والأخلاقية المرتبطة باستخداماته.

وكما نرى ونتابع كل يوم تحمل تطورات الذكاء الاصطناعي وعودًا بتطبيقات أكثر تقدمًا من شأنها تشكيل الصناعة بطرق عميقة، ومن خلال هذه السلسلة نرصد ونتتبع تطور وأوجه الاستخدامات من تحليل البيانات المبكر إلى العصر الحالي للتعلم العميق والأتمتة.

في هذه الحلقة نتحدث عن عمليات أتمتمة إنتاج الأخبار وكتابة السيناريو والنصوص الدرامية بأدوات الذكاء الاصطناعي، ونطرح هنا جانبًا مهمًا يتعلق بالتبني المسؤول لأدوات الذكاء الاصطناعي في غرف الأخبار.

أداة تضيف قيمة وتخفف الأعباء

يتفق خبراء الإعلام أن الذكاء الاصطناعي لا ينبغي أن يُنظر إليه كبديل للصحفي، بل كأداة تضيف قيمة وتخفف الأعباء، فالتقنيات الجديدة قادرة على فرز كمّ هائل من المعلومات خلال ثوانٍ، وهو ما يسهّل على الصحفيين الوصول إلى المعطيات الأساسية بسرعة أكبر، لكن الاعتماد المفرط عليها دون رقابة بشرية قد يؤدي إلى أخطاء مهنية جسيمة، لأن الذكاء الاصطناعي يبقى محدودًا ببياناته وخوارزمياته.

وقد بدأ الذكاء الاصطناعي بالفعل في تغيير الطريقة التي يتم بها نقل الأخبار، ويمكن لأدوات الذكاء الاصطناعي حاليًّا تنبيه الصحفيين إلى الأخبار العاجلة، ومساعدتهم على تحليل قواعد البيانات الضخمة واستخلاص رؤى منها، بل وحتى كتابة الأخبار وإنتاجها.

 في الوقت نفسه، تُعد المخاطر المرتبطة باستخدام أدوات الذكاء الاصطناعي كبيرة ومتنوعة، بدءًا من احتمال نشر معلومات مضللة وصولًا إلى إصدار تصريحات متحيزة، بذلك قد تكون تكلفة إساءة استخدام الذكاء الاصطناعي في الصحافة باهظة، حرفيًّا ومجازيًّا، إذ يمكن أن تؤدي طريقة تدريب الأنظمة على بيانات غير متوازنة إلى نتائج متحيّزة تعكس ميولًا سياسية أو اجتماعية غير مقصودة، ولهذا يدعو خبراء الإعلام إلى فحص الأدوات دوريًّا ومقارنتها بمرجعيات تحريرية واضحة لضمان عدم انحرافها عن المعايير المهنية.

الشفافية والمراجعة البشرية

على ذلك تفرض الظروف الحالية على غرف الأخبار وضع قواعد واضحة تحكم طريقة استخدام الذكاء الاصطناعي، وتأتي الشفافية في مقدمة هذه المبادئ، إذ يتعين على المؤسسات الإفصاح عن دور الذكاء الاصطناعي في إنتاج المحتوى حين يكون لذلك تأثير على فهم الجمهور لطبيعة المادة المنشورة.

أما المراجعة البشرية فهي خط الدفاع الأول ضد الأخطاء والانحيازات التي قد تظهر في النصوص أو التحليلات التي تنتجها الأنظمة الذكية، ويؤكد مختصون أن أي محتوى يتم إنتاجه أو تحريره بواسطة الذكاء الاصطناعي يجب ألا يُنشر قبل أن يخضع لمراجعة مستقلة من صحفي مؤهل.

وتبرز – أيضًا – أهمية حماية البيانات، خاصة مع تزايد استخدام أدوات تعتمد على الوصول إلى ملفات داخلية أو معلومات حساسة، فغياب الضوابط يفتح الباب أمام تسريب البيانات أو إساءة استخدامها، وهو ما قد يعرّض المؤسسات لمخاطر قانونية وأخلاقية.

فوائد واستخدامات مشروطة

تستخدم مؤسسات إعلامية عديدة الذكاء الاصطناعي في أعمال روتينية، مثل: “تفريغ المقابلات، وترجمة النصوص، وتتبع الموضوعات الرائجة عبر الإنترنت”، وتساعد هذه الوظائف على توفير الوقت وزيادة الإنتاجية دون المساس بجوهر العمل الصحفي.

لكن هناك استخدامات تتطلب حذرًا أكبر، مثل كتابة المقالات الآلية أو إنتاج صور وفيديوهات باستخدام تقنيات “التزييف العميق”، وهي مجالات قد تؤدي إلى نشر محتوى مضلل إذا لم تُطبق عليها ضوابط صارمة.

لا يكتمل أي تحول تكنولوجي دون تدريب العاملين عليه، لذلك تشدد المؤسسات على ضرورة تأهيل الصحفيين لفهم كيفية عمل الذكاء الاصطناعي، واكتشاف أخطائه المحتملة، والتعامل مع مخرجاته بحس نقدي، كما يساعد التدريب على بناء ثقافة مهنية لا ترى الذكاء الاصطناعي كتهديد، بل كامتداد لأدوات الصحفي التقليدية.

في النهاية، يبقى التحدي الأكبر هو الحفاظ على ثقة الجمهور، فالجمهور يتوقع من وسائل الإعلام أن تقدم معلومات دقيقة، وأن تكون شفافة بشأن استخدام التقنيات التي تُسهم في إنتاج المحتوى، وأي سوء استخدام للذكاء الاصطناعي قد يؤدي إلى فقدان هذه الثقة في لحظة يصعب تعويضها.

مبادرة شراكة الذكاء الاصطناعي

في السياق تتعاون مبادرة شراكة الذكاء الاصطناعي (Partnership on AI – PAI)، كجزء من مبادرة مؤسسة “نايت” للذكاء الاصطناعي والأخبار المحلية (Knight Foundation’s AI and Local News Initiative)، مع منظمات وأفراد من قطاعات التكنولوجيا والأخبار والمجتمع المدني والأوساط الأكاديمية، لاستكشاف كيفية تبني الصحفيين للذكاء الاصطناعي بشكل أخلاقي.

نشرت هذه الشراكة مقالًا لكلير ليبوفيتش، رئيسة قسم الذكاء الاصطناعي والمجتمع في شراكة الذكاء الاصطناعي (PAI) وطالبة دكتوراه في جامعة إكسفورد، وأدريانا ستيفان، باحثة ومحللة سياسات في مجال الذكاء الاصطناعي والأمن السيبراني وطالبة دكتوراه في معهد أكسفورد للإنترنت، جاء فيه: “بالنسبة للمؤسسات التي بدأت في استخدام تقنية الذكاء الاصطناعي، نقول لهم إن هذه الأدوات تتمتع بالقدرة على تحسين استدامة أعمال غرف الأخبار، كما أنها تطرح أسئلة أخلاقية مهمة حول كيفية إنتاج الأخبار المدعومة بالذكاء الاصطناعي، وتوزيعها، وتصنيفها، واستهلاكها، وقد وُصفت العديد من تقنيات الذكاء الاصطناعي نفسها، التي شكّلت تحديات لغرف الأخبار عند تطبيقها على منصات التكنولوجيا، مثل: استخدام خوارزميات التوصية التي تُحسّن التفاعل، بأنها مفيدة إذا طُبّقت في غرف الأخبار نفسها لتحسين تفاعل الجمهور”.

يقدم المقال دليلًا، يستند إلى خمسة مبادئ أساسية لغرف الأخبار التي تعتمد على الذكاء الاصطناعي، ما يمثل خارطة طريق خطوة بخطوة لدعم هذه الغرف في التعامل مع الأسئلة الصعبة التي يطرحها تحديد أدوات الذكاء الاصطناعي المطلوبة واستخدامها.

المقال يطرح أسئلة ويجيب عنها، هكذا: إذا أردنا استخدام الذكاء الاصطناعي لدعم صناعة الأخبار، فكيف يمكننا التأكد من أن مزايا هذه التقنية التجارية لا تأتي على حساب الأخلاقيات أو الفوائد المجتمعية التي تُقدّمها غرف الأخبار؟ وعلى مستوى أساسي، كيف ينبغي أن تبدو أخلاقيات الذكاء الاصطناعي للأخبار المحلية؟

الإجابة تقول: إن مبادرة شراكة الذكاء الاصطناعي تعتقد أن غرف الأخبار التي تستخدم الذكاء الاصطناعي يجب أن تُراعي أخلاقيات الذكاء الاصطناعي بنفس الدقة والحساسية التي تُطبّقها بالفعل على الممارسات الصحفية، والجدير بالذكر أنه لا ينبغي اعتبار أخلاقيات الذكاء الاصطناعي هذه منفصلة تمامًا عن أخلاقيات الصحافة، بل امتدادًا لها.

وكنقطة انطلاق لمن يفكرون في أخلاقيات الذكاء الاصطناعي في غرف الأخبار المحلية “بما في ذلك الصحفيون العاملون فيها والعاملون في مجالات أخرى ممن يفكرون في مستقبل الأخبار المحلية”، نقدم التوصيات الخمس الأولية التالية لكيفية تبني مجال الأخبار المحلية للذكاء الاصطناعي أخلاقيًّا:

(1) تحتاج غرف الأخبار إلى أهداف واضحة لتبني أدوات الذكاء الاصطناعي.

(2) يجب أن تُجسّد التكنولوجيا والتطبيقات الذكية معايير وقيم العملية الإخبارية.

(3) أن يرافق تطبيق أدوات الذكاء الاصطناعي، آليات الشفافية والوضوح والمساءلة.

(4) أن يُشرف المسؤولون في غرف الأخبار على أدوات الذكاء الاصطناعي بفعالية.

(5) أن تُدمج قيم الصحافة في أنظمة الذكاء الاصطناعي الخاصة بالنشر، ونقل الأخبار.

خلاصة مطلوبة

يمثل الذكاء الاصطناعي فرصة ذهبية لغرف الأخبار لتعزيز السرعة والدقة، لكنه في الوقت ذاته أداة حساسة تتطلب وعيًّا ومسؤولية في الاستخدام، وبينما يتواصل التطور التكنولوجي بوتيرة متسارعة، يبقى دور الصحفي – بخبرته وحكمه المهني – العنصر الأكثر أهمية لضمان تقديم صحافة موثوقة تخدم الحقيقة وجمهورها.

نقول ذلك ومعظم الدول العربية لا تمتلك حتى اليوم أطر خاصة بتنظيم الذكاء الاصطناعي وفق ما طرح أعلاه، وبالتالي تعمل المؤسسات الإعلامية العربية دون اعتبار لحقوق جمهور وسائل الإعلام وبدون القدرة على حماية خصوصية المستخدم العربي.