MENA Editors
لم يعد الذكاء الاصطناعي مجرد تقنية، بل أصبح جزءًا متزايدًا من منظومة الإعلام العالمية. ومع ذلك، تكشف الدراسات الحديثة أن الجمهور لا يزال متشككًا، إذ يطالب بالكشف عن تفاصيل استخدام هذه الأدوات وتبني ضوابط أخلاقية واضحة قبل دمجها في العمل الصحفي.
هذا التقرير يستند إلى أبحاث أجراها مركز مينيسوتا للصحافة (MJC) بالتعاون مع معهد بوينتر وTrusting News (2025)، ويتناول مواقف الجمهور تجاه استخدام الذكاء الاصطناعي في الإعلام، مع استعراض نماذج من الممارسات الحالية وأطر أخلاقية مقترحة.
أولاً: مواقف الجمهور تجاه الذكاء الاصطناعي في الصحافة
- 94% من المشاركين في استطلاع Trusting News أكدوا أن على غرف الأخبار الإفصاح عن استخدام الذكاء الاصطناعي بشكل صريح وواضح.
- أكثر من 60% قالوا إن المؤسسات الإعلامية يجب أن تستخدم هذه الأدوات فقط إذا كانت لديها سياسات تحريرية مكتوبة.
- نحو 30% ذهبوا أبعد من ذلك، مؤكدين أن الذكاء الاصطناعي لا ينبغي استخدامه على الإطلاق في العمل الصحفي.
هذه الأرقام تعكس فجوة ثقة واضحة، وتؤكد أن القلق لا ينبع من التقنية ذاتها بل من الغموض المحيط بطريقة استخدامها (MJC & Trusting News, 2025).
ثانياً: مخاوف وتحديات غرف الأخبار
يقول الباحث بنجامين توف، مدير MJC، إن المؤسسات الإعلامية تجد نفسها في معضلة:
- من جهة، هناك ضغط لمواكبة الابتكار خشية فقدان المنافسة.
- ومن جهة أخرى، هناك خوف من خسارة ثقة الجمهور إذا استُخدمت هذه الأدوات دون شفافية.
ويحذر توف من أن التقدم بسرعة تفوق استعداد الجمهور “قد يؤدي إلى نتائج عكسية تزيد من أزمة الثقة الإعلامية”.
ثالثاً: كيف يُستخدم الذكاء الاصطناعي في الصحافة اليوم؟
وفق ورشة عمل نظمها معهد بوينتر، يمكن تصنيف استخدامات الذكاء الاصطناعي في غرف الأخبار إلى أربع فئات رئيسية (Roy, 2024):
- إنتاج المحتوى: مثل توليد العناوين أو كتابة ملخصات ومنشورات على شبكات التواصل.
- تحسين سير العمل: عبر أدوات التدقيق اللغوي، النسخ الآلي، وإدارة البيانات.
- التحليل والتنبؤ: مثل أدوات تحسين الاشتراكات المدفوعة، والتنبؤ بخسارة الجمهور.
- التفاعل مع القراء: من خلال روبوتات المحادثة التفاعلية وأدوات التلخيص الموجهة للجمهور.
وتشير الباحثة نيكيتا روي إلى أن “الصحفيين مدينون لأنفسهم ولجمهورهم بفهم هذه الأدوات بعمق، إذ إن الفهم الواعي هو السبيل الوحيد لاستخدامها بمسؤولية”.
رابعاً: البعد الأخلاقي كشرط للثقة
تؤكد الدراسات أن الأخلاقيات يجب أن تكون في صلب أي عملية إدماج للذكاء الاصطناعي داخل غرف الأخبار.
وفق تقرير نشره موقع TheWord360 (2024)، هناك عشرة مبادئ أساسية للاستخدام الأخلاقي، أبرزها:
- الإبقاء على الرقابة البشرية في كل خطوة من خطوات العمل.
- عدم استبدال الصحفي البشري، بل استخدام الأدوات لتعزيز عمله.
- تدريب الصحفيين على فهم أخلاقيات الذكاء الاصطناعي إلى جانب معرفة تشغيله.
خامساً: الإفصاح وسيلة لبناء الثقة
ترى منظمة Trusting News أن الإفصاح الواضح هو الأساس. وينبغي أن يشمل:
- شرح ما قامت به أداة الذكاء الاصطناعي.
- تبرير أسباب استخدامها.
- توضيح دور الصحفي البشري في المراجعة.
- التأكيد على الالتزام بالمعايير التحريرية.
أمثلة عملية:
- صحيفة USA Today (2024) أرفقت توضيحًا ضمن أحد مقالاتها حول مطار جاكسون هول: “تم إنشاء النقاط الرئيسية بمساعدة الذكاء الاصطناعي ومراجعتها من قبل صحفي بشري قبل النشر.”
- مؤسسة MediaWise، بالشراكة مع أسوشيتد برس وبدعم من مايكروسوفت، أنتجت أدوات تدريبية تساعد الصحفيين على شرح الذكاء الاصطناعي للجمهور بلغة بسيطة، مع إبراز دور الصحفي البشري في كل عملية.
سادساً: نحو ميثاق شفاف لاستخدام الذكاء الاصطناعي في الإعلام
يمكن تلخيص الدروس المستخلصة في ثلاث توصيات رئيسية:
- الشفافية أولاً: الإفصاح العلني عن كل استخدام لأدوات الذكاء الاصطناعي.
- تأصيل الأخلاقيات: دمج ضوابط واضحة تحدد ما هو مقبول وما هو مرفوض.
- التثقيف المستمر: تدريب الصحفيين والجمهور على فهم دور الذكاء الاصطناعي وحدوده.
خاتمة
يبدو أن إدخال الذكاء الاصطناعي في غرف الأخبار لم يعد خيارًا، بل أصبح مسألة وقت. لكن النجاح في دمجه لا يعتمد فقط على السرعة في تبني الأدوات، بل على القدرة على بناء الثقة مع الجمهور من خلال الشفافية، المساءلة، والالتزام بالقيم المهنية.
الرسالة الجوهرية: إذا أرادت غرف الأخبار أن يستفيد الجمهور من الذكاء الاصطناعي، فعليها أن تجعل الإفصاح عنه قاعدة لا استثناء.
المراجع
MediaWise, Associated Press & Microsoft. AI Literacy Toolkit for Newsrooms (2024).
Minnesota Journalism Center (MJC), Trusting News & Poynter Institute. AI and Public Trust in Journalism (2025).
Nikita Roy. AI in Newsrooms: Case Studies and Applications, Poynter Workshop (2024).
TheWord360. Ten Ways to Use AI Ethically in Journalism (2024).
USA Today. Disclosure Note on AI Use in Reporting Jackson Hole Airport Changes (2024).


























