حسين الإبراهيم
كاتب وصحفي
كلمة أولى:
في عالمٍ صار فيه الزيف أكثر إقناعًا من الحقيقة، يصبح الشك فضيلة، ويغدو التحقق مقاومة.
الحقيقة تحت الحصار
ها نحن نعيش في زمنٍ تُصاغ فيه الصور بالكود البرمجي، وتُولّد فيه الأصوات بالذكاء الاصطناعي، حيث لم تعد الحقيقة ابنة الواقع، بل صنيعة الخوارزميات. حيث أصبح بوسع طرفٍ خفي أن يخلق مشهدًا، ينسج تصريحًا، وينشر قصة بكبسة زر، كلها تبدو واقعية، لكنها لم تحدث أبدًا.
هذا الواقع المتحوّل لا يهدد فقط الصحافة أو المجال السياسي، بل يُربك قدرة المجتمعات على الفهم، والتوافق، واتخاذ القرار. فحين تصبح أدوات الذكاء الاصطناعي في متناول الجميع، وتُستخدم لتضليل الجميع، تصبح المعركة على المعلومة معركة وجودية، بين الشك والإيمان، بين الصوت والحقيقة، بين التقنية والمسؤولية.
فقد كشفت دراسة حديثة من جامعة ولاية ميشيغان أن الذكاء المعرفي العالي لا يشكّل حصنًا منيعًا ضد التضليل، بل قد يتحول، عند اقترانه بالاستخدام المفرط لوسائل التواصل الاجتماعي، إلى أداة تعمّق قابلية تصديق الأخبار الكاذبة، إذ يوظف الأفراد ذكاءهم أحيانًا لتبرير مواقفهم المسبقة لا لفحص صحة المعلومات التي يتلقونها.
هذا الواقع المعقد تؤكده أيضًا دراسات من معهد ماساتشوستس للتقانة ومجلة نيتشر، والتي تشير إلى أن المهارات الرقمية العالية تساعد الأفراد على تمييز المعلومات المضللة، لكنها لا تمنعهم من نشرها عندما تتوافق مع هويتهم أو انحيازاتهم. فالتضليل اليوم لا يستهدف الجهل بقدر ما يستغل دوافع الانتماء والتحفيز الدافع، ليجعل من الذكاء نفسه حليفًا غير واعٍ لانتشار الزيف.
وفي العالم العربي، حيث يعتمد غالبية المستخدمين على مواقع التواصل الاجتماعي كمصدر رئيسي للأخبار، تتفاقم خطورة هذا المشهد؛ إذ تظل بيئتنا الرقمية عرضة للتضليل حتى بين من يمتلكون مهارات معرفية وتحليلية متقدمة. هنا، تتضح الحاجة الملحة إلى ما هو أبعد من محو الأمية الرقمية: إلى تربية على الشك، وتعليم للانتباه، وتدريب على التفكير النقدي، حتى لا يصبح الذكاء مهما بلغ سببًا إضافيًا للانخداع في زمن ما بعد الحقيقة.
تقنيات الذكاء الاصطناعي في التضليل… من التزييف العميق إلى روبوتات الدردشة
تعددت وجوه التضليل، وتنوعت أدواته، لكن الذكاء الاصطناعي قدّم مستوى جديدًا من الزيف عالي الإقناع.
في السنوات الأخيرة، تحوّل الذكاء الاصطناعي من مجرد أداة لتحسين الإنتاجية إلى سلاح مزدوج الحافة يمكن استخدامه لصنع واقع بديل يُغذّي التضليل ويشوّه الإدراك الجمعي. من أبرز هذه التقنيات:

- التزييف العميق (Deepfake): مقاطع فيديو مفبركة تُظهر شخصيات عامة في مشاهد لم تحدث. مثل الفيديو المزيّف للرئيس الأوكراني زيلينسكي في 2023 يدعو قواته للاستسلام.
- استنساخ الأصوات: انتحال أصوات حقيقية لتمرير رسائل زائفة، كما حدث في انتخابات أمريكا حيث نُشر مقطع صوتي مزيّف للرئيس بايدن يحث الناس على عدم التصويت.
- روبوتات الدردشة الذكية: إنتاج محتوى مضلل بكميات هائلة، مما يعزز “الوهم الشعبي” ويوجّه النقاشات الرقمية.
- مواقع إخبارية وهمية: منصات تدار بالكامل بالذكاء الاصطناعي، تقدم محتوى مُمنهجًا ضمن واجهات احترافية مموّهة.
أهداف ومخاطر التضليل المدعوم بالذكاء الاصطناعي
لم يعد التضليل مجرد “إشاعة تقال على المقاهي الرقمية”، بل تحول إلى أداة هندسية دقيقة تُصمم لخداع الجمهور وتوجيه الرأي العام، مدفوعة بإمكانات الذكاء الاصطناعي غير المسبوقة. تتنوع الأهداف، لكن القاسم المشترك بينها هو تقويض الحقيقة لصالح أجندة ما، على أن الغرض من التضليل لم يعد مجرد تشويش، بل أصبح أداة استراتيجية:
- التلاعب بالانتخابات: تضخيم رسائل كاذبة كما في انتخابات كينيا 2022 وأمريكا 2024.
- زرع الفتن والانقسامات: محتوى موجّه يُغذي الانقسامات الإثنية والدينية، كما حدث في الهند.
- هدم الثقة: الإغراق بمحتوى مفبرك يخلق حالة من “اللايقين المعرفي” تُضعف الصحافة والسلطات الرسمية.
- خلق وهم التوافق العام: التضليل عبر “ضخ محتوى متكرر” يوهم الناس أن فكرة معينة تمثل الأغلبية.
كيف تغيّر خوارزميات الذكاء الاصطناعي موازين الرأي العام؟
في الوقت الذي تصوغ فيه الخوارزميات ما نراه ونسمعه، لم يعد الرأي العام يتشكّل بشكل عفوي، بل يخضع لـ”تصفية ذكية” تُصمَّم لتقديم واقع شخصي لكل مستخدم على حدة. الذكاء الاصطناعي هنا لا يقدّم الحقيقة، بل نسخة منها تتوافق مع تحيّزاتك ومخاوفك وتفضيلاتك.
- فقاعات التصفية (Filter Bubbles): يُغذّى المستخدم بما يؤكد ميوله، ما يعمّق الاستقطاب بدل توسيع الأفق.
- تضخيم قضايا محددة: يستطيع الذكاء الاصطناعي تحويل قضايا هامشية إلى قضايا رأي عام عبر التكرار الخوارزمي.
- هندسة القرار الجماهيري: كل تفاعل رقمي يُسجَّل ويُستخدم لاحقًا لصياغة رسائل دقيقة موجهة نفسيًا وفكريًا.
لماذا ينجح التضليل رغم ارتفاع الذكاء والمهارات الرقمية؟
في مفارقة لافتة، أظهرت الدراسات أن الذكاء المرتفع أو الثقافة الرقمية لا يشكلان حصانة ضد التضليل. بل على العكس، قد يمتلك الأفراد الأذكياء أدوات أقوى لتبرير قناعاتهم المسبقة، مما يجعلهم أكثر عرضة لتصديق معلومات زائفة تتماشى مع هوياتهم أو انتماءاتهم الفكرية.
1. الذكاء لا يضمن التحقق، بل قد يعزز الثقة الزائفة
في دراسة نُشرت عام 2023 بمجلة Nature Human Behaviour، وجد الباحثون أن الأشخاص ذوي الأداء العالي في اختبارات التفكير النقدي كانوا أكثر ميلًا لتصديق أخبار مزيفة إذا كانت تتفق مع مواقفهم السياسية. الذكاء هنا يُستخدم أحيانًا كـ”عدسة مكبرة للتحيز”، بدلًا من أن يكون أداة لكشف الخلل.
2. التحفيز الدافع (Motivated Reasoning): العقل كخادم للهوية
يشير هذا المفهوم إلى أن الناس لا يستخدمون قدراتهم العقلية لاختبار صحة المعلومات، بل لتبرير مواقفهم ومعتقداتهم الراسخة. أي أن “المنطق” يُجنَّد لحماية الهوية، لا لفضح الأكاذيب. مثال على ذلك ما أظهرته دراسة من جامعة ستانفورد، حيث طُلب من المشاركين تقييم بيانات وهمية حول فعالية عقوبات اقتصادية. رغم أن البيانات كانت موحدة، إلا أن تفسير النتائج اختلف تبعًا للانتماء السياسي للمشارك، ما يعكس فاعلية التحفيز الدافع.
3. الثقافة الرقمية لا تكفي وحدها
رغم انتشار مفاهيم مثل “التحقق من المصادر” و”الوعي بالأخبار المزيفة”، فإن المهارات الرقمية لا تمنع الوقوع في فخ التضليل إذا كانت لا تُرافقها مساءلة معرفية. أي أن المستخدم يصبح ماهرًا في التعامل مع الأدوات، لكنه يبقى معرضًا للتحيّزات المعرفية العميقة التي تُعيد تشكيل ما يراه ويسمعه.
حملات تضليل بارزة مدعومة بالذكاء الاصطناعي
في السنوات الأخيرة، شهد العالم تصاعدًا في استخدام الذكاء الاصطناعي ضمن حملات تضليل إعلامي تستهدف الرأي العام، وتُدار غالبًا من قبل جهات سياسية أو استخباراتية. هذه الحملات لا تقتصر على التزييف البصري، بل تمتد إلى هندسة السرديات وتوجيه النقاشات العامة.
1. عملية التقويض” الروسية (2024)
كشفت شركة “Recorded Future” عن حملة تضليل روسية أُطلق عليها اسم Operation Doppelgänger أو “عملية التقويض”، استخدمت فيها أدوات مثل ElevenLabs لتوليد أصوات مزيفة بلغات متعددة (الإنجليزية، الفرنسية، الألمانية، البولندية، التركية). تم إنتاج مقاطع فيديو زائفة تُظهر سياسيين أوكرانيين كفاسدين، وشككت في فعالية الدعم العسكري الغربي لأوكرانيا. أحد المقاطع زعم أن أجهزة التشويش على دبابات أبرامز الأمريكية غير فعالة، في محاولة لتقويض الدعم الأوروبي لكييف.
2. الحملة الفنزويلية عبر مذيعين وهميين (2023–2024)
استخدمت وسائل إعلام رسمية في فنزويلا تقنية Synthesia لإنتاج مقاطع فيديو لمذيعين وهميين يتحدثون الإنجليزية، يروّجون لرسائل مؤيدة للحكومة. هذه المقاطع بُثّت عبر قناة إخبارية مزيفة، ما منحها مظهرًا احترافيًا زائفًا. وقد أثارت هذه الحملة جدلًا واسعًا حول شرعية استخدام الذكاء الاصطناعي في الإعلام الرسمي.
3. الانتخابات الأمريكية (2024): بايدن و”الصوت المزيف“
قبل الانتخابات التمهيدية، انتشر مقطع صوتي مزيّف للرئيس جو بايدن يحث فيه الناخبين على عدم التصويت، ما أثار بلبلة واسعة وفتح تحقيقات حول مصدر التسجيل. وقد أكدت التحليلات أن الصوت تم توليده باستخدام أدوات ذكاء اصطناعي متقدمة.
4. صور مفبركة في الحملات الأوروبية
في فرنسا وألمانيا، تم تداول صور مزيفة تُظهر سياسيين في مواقف محرجة أو مثيرة للجدل، مثل صورة مفبركة تُظهر الرئيس الفرنسي في لقاء سري مع لوبيات أجنبية. رغم نفي الجهات الرسمية، إلا أن الصور انتشرت بسرعة وأثرت على النقاشات الانتخابية.
تحديات المواجهة… من التقنية إلى الوعي الجماعي
بالرغم من التطور المتسارع لأدوات التضليل الرقمي، ما تزال استراتيجيات المواجهة في طور التشكّل. التصدي لهذا الخطر لا يتحقق فقط عبر تحديث البرمجيات، بل يحتاج إلى تحديث “مفاهيمنا” حول المعلومة والحقيقة والثقة.
1. تطوير أدوات لكشف التزييف والتضليل الآلي
باتت الحاجة ملحّة إلى بناء تقنيات مضادة قادرة على رصد المحتوى المفبرك وتحليل أنماط الانتشار المشبوهة. أمثلة:
- أطلقت “مايكروسوفت” و”BBC” أدوات لرصد الفيديوهات المزيّفة عبر بصمات رقمية تعرف باسم Video Authenticator.
- يستخدم موقع NewsGuard تصنيفًا لخوارزميات المواقع الإخبارية، ويقيّم مصداقيتها بناءً على 9 معايير.
لكن هذه الأدوات تواجه تحديات كبيرة مع تطور تقنيات التزييف التوليدي التي تُنتج صورًا وأصواتًا يصعب كشفها.
2. تعزيز التربية الإعلامية والوعي النقدي
المهارات التقنية لا تكفي. المطلوب هو بناء “مناعة معرفية“ لدى الأفراد، بحيث يتعلمون كيف يشكّون، ويسألون، ويُحلّلون. في فنلندا، اعتُمدت برامج تربية إعلامية منذ الطفولة، وحقّقت نتائج لافتة في مقاومة الأخبار المزيفة. ووفقًا لدراسة من Stanford History Education Group، تبيّن أن أكثر من 80٪ من طلاب الجامعات في الولايات المتحدة لم يستطيعوا التمييز بين خبر دعائي ومقال صحفي حقيقي، ما يؤكد أهمية تعليم التفكير النقدي لا مجرد الاستخدام التقني.
3. التشريعات والتعاون الدولي
التنظيم القانوني ضرورة لا يمكن إغفالها، لكن يجب ألا يكون سيفًا مسلطًا على حرية التعبير.
- في الاتحاد الأوروبي، دخل قانون DSA (قانون الخدمات الرقمية) حيّز التنفيذ عام 2024، ويلزم المنصات بالكشف عن استخدام الذكاء الاصطناعي في المحتوى المعروض.
- كما وقّعت أكثر من 20 دولة على الميثاق العالمي لاستخدام الذكاء الاصطناعي بشكل مسؤول، الذي يضع إطارًا أخلاقيًا لاستخدام هذه التقنيات.
غير أن التحدي الحقيقي يكمن في التنسيق بين دول ذات خلفيات سياسية وقانونية مختلفة، ما يجعل مهمة المواجهة أشبه بـ”تنسيق عزف على آلات قانونية متنافرة”.
الهشاشة المعرفية في زمن الخوارزميات
في معركةٍ باتت فيها الحقيقة عُرضةً للتشفير والتزييف، لم يعد التحدّي الأكبر هو قوّة أداة التضليل، بل هشاشة جهاز الاستقبال: المتلقي.
بين سيلٍ من المعلومات وسرعةٍ تفوق قدرة البشر على التحقق، صار الجمهور المستهدف أكثر عرضة للتأثير، حتى من دون وعيٍ مباشر بذلك.
1. الانبهار بالتقنية: الثقة التي تُعمي
تمنح أدوات الذكاء الاصطناعي الحديثة المحتوى طابعًا واقعيًا مقنعًا بصوتٍ مألوف، ووجهٍ معروف، وحتى بأسلوبٍ حواري جذّاب. وفي كثير من الأحيان، لا يُشكك المتلقي في صدقية ما يرى أو يسمع، لأنه ببساطة “يشبه الواقع”.
بيّنت دراسة من University of Washington (2024) أن 62٪ من المشاركين وثقوا بمقاطع صوتية مزيفة بالكامل إذا كانت منسوبة لشخصية عامة يعرفونها.
2. الإشباع المعلوماتي وفقدان بوصلة التركيز
الإغراق بالمعلومات ـ سواء كانت صادقة أو مضللة ـ يؤدي إلى حالة تُعرف بـ “الإرهاق المعرفي“، يصبح فيها المتلقي أقل قدرة على التمييز وأقرب إلى ردود الفعل العاطفية أو التلقائية.
فبدل أن يُحلّل ويُقيّم، يختار ما يُريح قناعاته أو يخدم هويته الاجتماعية.
3. انحيازات الهوية والحاجة للتأكيد
الذكاء الاصطناعي لا يُخاطب فقط العقول، بل يُتقن الآن مخاطبة “الهوية”. في عالمٍ يُغذّي المحتوى المخصص ميول المتلقي، تصبح الرسائل التضليلية أكثر فاعلية، لأنها تؤكّد ما يريد المرء تصديقه أصلًا.
وهو ما جعل بعض الباحثين يُطلقون على هذا العصر اسم: “زمن الحقيقة المريحة“ أي الحقيقة المصنوعة بما يوافق الذات، لا بما يعكس الواقع.

الخاتمة
طالما أننا وصلنا إلى مرحلة باتت الخوارزميات فيها تتحكّم بإيقاع المعلومة، لم يعد الذكاء الاصطناعي مجرّد أداة تقنية، بل صار لاعبًا فاعلًا في معركة الحقيقة والمصداقية. وبينما يُمكن أن يكون حليفًا في كشف الزيف وتعزيز المعرفة، يمكن في المقابل أن يتحوّل إلى مصنعٍ لـ”حقائق مصممة”، تُنسج خصيصًا لتخدم مصالح مموّليها ومُشغّليها.
ليس التحدي في الذكاء الاصطناعي بحدّ ذاته، بل في الطريقة التي نختار أن نستخدمه بها. فهناك خيطٌ رفيع بين التمكين والتلاعب، بين التقدّم والتضليل. لذلك، تقع على عاتق الأفراد والمؤسسات والمشرّعين مسؤولية ثلاثية الأبعاد: الاستفادة، واليقظة، والمساءلة.
لا مناص من أن نُطوّر أدوات ذكية لمواجهة المحتوى المُضلِّل، لكن الأهم من ذلك هو بناء مجتمعات تملك مناعة نقدية، تُشكك قبل أن تُصدّق، وتتحقّق قبل أن تُشارك. فالمعركة ضد التضليل ليست تقنية فقط، بل ثقافية ومعرفية وأخلاقية بالدرجة الأولى.
في النهاية، الذكاء الاصطناعي ليس عدوًّا ولا بطلًا. إنه مرآة لقدراتنا ونوايانا. فإن أحسَنّا استخدامه، قد يصبح ضوءًا يرشدنا في العتمة الرقمية. وإن أسأنا، فلن نلوم إلا أنفسنا.