مركز أبحاث أمريكي يحلل ظاهرة المعلومات المضللة أثناء الانتخابات
حلل مركز تلأبحاث الأمريكي للسلام ظاهرة المعلومات المضللة خلال انتخابات العام الماضي.
سيكون هذا العام واحدًا من أكثر الأعوام أهمية في الذاكرة الحديثة، حيث سيتم إجراء أكثر من 50 انتخابات في بلدان في جميع أنحاء العالم تضم ما يقرب من ملياري شخص. مع تزايد دور التكنولوجيا في العديد من القطاعات، من المتوقع أن يكون لتكنولوجيا الاتصالات (أي منصات التواصل الاجتماعي وتطبيقات المراسلة) والذكاء الاصطناعي مستويات متفاوتة من التأثير على الانتخابات في عام 2024. وبدون تعاون وتخطيط قوي بين وبناة السلام والمجتمع المدني وشركات التكنولوجيا والحكومات، فإن التداعيات الناجمة عن استخدام التكنولوجيا غير المدارة في فترة الانتخابات ستكون بعيدة المدى، من عدم القدرة المتزايدة على تمييز الحقيقة من الخيال إلى عدم الثقة في العمليات السياسية الديمقراطية.
دور الذكاء الاصطناعي
وسوف يستمر تطوير الذكاء الاصطناعي واستخدامه في استهلاك مناقشات الحوكمة العالمية. وبينما بدأت هذه المحادثات في التبلور، بدأ المرشحون السياسيون بالفعل في تطبيق التكنولوجيا في الحملات الانتخابية. ومن باكستان إلى الولايات المتحدة، يعمل الذكاء الاصطناعي كمورد للمرشحين لنشر رسالتهم بسهولة أكبر. استخدمت الحملات السياسية الذكاء الاصطناعي للاتصال بالناخبين وصياغة رسائل الحملة وإنشاء رسائل آلية. على مدار عام 2024، قد يجد الناخبون أنفسهم يتفاعلون مع الذكاء الاصطناعي حيث ستتمكن الشركات من بناء برامج لإجراء محادثات مع الناخبين والإجابة على الأسئلة المتعلقة بالمرشح.
في البلدان ذات المجموعات السكانية المتنوعة التي تتحدث لغات مختلفة، يستخدم السياسيون الذكاء الاصطناعي لتكرار أصواتهم بمجموعة متنوعة من اللغات للتواصل. وفي الهند، يستخدم رئيس الوزراء ناريندرا مودي الذكاء الاصطناعي للتواصل باللغتين الهندية والتاميلية. بالإضافة إلى السياسيين الذين يستخدمون الذكاء الاصطناعي، يقوم الأفراد بإنشاء ميمات وأغاني تمثل شخصيات السياسيين، والتي يمكن أن تكون مصدرًا للتزييف العميق الخبيث، بعيدًا عن الفكاهة. يؤدي انتشار الذكاء الاصطناعي إلى خفض تكلفة الحملات والأفراد لتسخير التكنولوجيا لنشر رسالة معينة.
في جميع أنحاء العالم، يجد السياسيون طرقًا مختلفة لاستخدام الذكاء الاصطناعي لدعم حملاتهم. في المكسيك، على سبيل المثال، تستخدم المرشحة زوتشيتل غالفيز صورة رمزية للذكاء الاصطناعي، iXochitl، كمتحدث رسمي لمشاركة رسالتها مع الناخبين. تم إطلاق iXochitl على وسائل التواصل الاجتماعي، وهو يتفاعل مع الجمهور ويستجيب لتصريحات مرشحي المعارضة.
وبعيدًا عن الساسة الذين يستخدمون الذكاء الاصطناعي للتعامل مع الناخبين، فإن روبوتات الدردشة عبر الإنترنت ــ التي تم دمج بعضها في محركات البحث ــ والمبنية على الذكاء الاصطناعي التوليدي، ستعمل كمصدر للمعلومات المتعلقة بالانتخابات في العديد من البلدان حيث يتوفر البرنامج. ولسوء الحظ، أظهرت الاختبارات الأخيرة أن روبوتات الدردشة المدعمة بالذكاء الاصطناعي يمكن أن توفر معلومات غير دقيقة للناخبين حول موقع مواقع التصويت، ومواقف المرشحين بشأن القضايا والمصادر المرجعية التي يمكن أن تزيد من المعلومات الخاطئة في الانتخابات. مع توفر الذكاء الاصطناعي التوليدي بمجموعة متنوعة من اللغات، هناك احتمال كبير أن يؤدي هذا البرنامج إلى زيادة المعلومات الخاطئة حول الانتخابات والتضليل ونظريات المؤامرة.
لقد خفض الذكاء الاصطناعي وسيستمر في خفض التكاليف التي تتحملها الجهات الحكومية وغير الحكومية لإنشاء ونشر الصور المزيفة، والتي تتضمن صورًا ومقاطع فيديو تم التلاعب بها. يمكن لأي شخص لديه بعض المعرفة بالبرمجة وإمكانية الوصول إلى تطبيقات البرامج المختلفة المتاحة للتنزيل على الهواتف المحمولة أو من خلال متصفح الويب إنشاء تزييف عميق بأقل جهد. تراوحت عمليات التزييف العميق من مقاطع الفيديو التي تحريف الصحة العقلية للسياسي إلى إنشاء صور إباحية للنساء، وخاصة الصحفيات والمسؤولات في المجال العام من الولايات المتحدة إلى الهند. الغالبية العظمى من الصور المزيفة هي صور إباحية للنساء. من المرجح أن يكون هذا النوع من الإساءة عبر الإنترنت، إلى جانب أشكال أخرى من التحرش الرقمي، بارزًا ضد النساء اللاتي يترشحن لمناصب في عام 2024 أو الإبلاغ عن الانتخابات، ويتطلب اهتمامًا متزايدًا لتجنب تقليل النساء من مشاركتهن في المجال العام، الأمر الذي سيكون ضارًا للغاية بالديمقراطية.
يمكن أن تؤدي تقنية التزييف العميق أيضًا إلى تأجيج العنصرية وغيرها من أشكال التحيز السائدة داخل المجتمع. نظرًا لأن الانتخابات غالبًا ما تسلط الضوء على الانقسامات المجتمعية، فإن مقاطع الفيديو أو الصور المزيفة بعمق التي تشوه المجموعات أو الأفراد أو تستهدفها ستؤدي إلى تفاقم التحديات التي يواجهها المجتمع المدني وبناة السلام وشركات التكنولوجيا والحكومات عند سعيهم لدعم سلامة العمليات الديمقراطية.
لتضليل الإنتخابي والتضليل
قد تختلف طبيعة المعلومات الخاطئة والمعلومات المضللة بناءً على منصة التواصل الاجتماعي أو تطبيق المراسلة أو وسائل الاتصال الأخرى مثل التلفزيون أو الراديو. في حين أن عام 2024 سيشهد الموجة الأولى من الانتخابات في عصر زيادة الوعي واستخدام الذكاء الاصطناعي، فإن المعلومات الخاطئة والمعلومات المضللة لا تحتاج إلى الذكاء الاصطناعي حتى يتم تداول المعلومات غير الدقيقة والخبيثة داخل الدولة. إذا لم تكن المعلومات الخاطئة والمضللة مشكلة بالفعل بالنسبة للعديد من البلدان، فسوف تحدث قبل بدء التصويت، وأثناء فترة التصويت وبعدها إذا كانت النتائج متقاربة بشكل خاص أو كان المرشح ومؤيدوه ينظرون إلى النتائج بعين الشك. ويمكن أن تتوقع البلدان أيضًا ظهور نظريات المؤامرة التي ستساهم أيضًا في تلويث مساحة المعلومات للناخبين.
وبالنظر إلى عدد الانتخابات التي تجري على مستوى العالم، سيكون من الصعب للغاية على شركات التكنولوجيا والاتصالات وتطبيقات المراسلة معالجة المعلومات الخاطئة والمعلومات المضللة والتزييف العميق التي قد تنتشر. طوال عام 2023، قامت شركات Google وMeta وX، المعروفة سابقًا باسم Twitter، بتسريح آلاف الموظفين، الذين خدم الكثير منهم في فرق الثقة والسلامة ومراقبة الانتخابات. ومع انخفاض عدد الموظفين والتحديات المستمرة في الإشراف على المحتوى بلغات الجنوب العالمي، قد تجد شركات وسائل التواصل الاجتماعي نفسها غارقة في إدارة المعلومات المضللة والمعلومات المضللة والمزيفة العميقة التي تنتشر حول الانتخابات في مناطق مختلفة من العالم.
كيفية معالجة التضليل في الانتخابات
هناك إجراءات يمكن للمجتمع المدني والحكومات وشركات التكنولوجيا وبناة السلام اتخاذها للتخفيف من الاضطرابات في الانتخابات. في إندونيسيا، على سبيل المثال، تقوم وزارة الاتصالات وتكنولوجيا المعلومات بتتبع المعلومات المضللة ونظريات المؤامرة المتعلقة بانتخابات 14 فبراير في البلاد، بالإضافة إلى تزويد المواطنين بالتثقيف الرقمي. يعمل مختبر الإنترنت الآمن، وهو جهد مشترك بين مركز الدراسات الاستراتيجية والدولية وجوجل، على مكافحة المعلومات الخاطئة والمعلومات المضللة لمساعدة صناع السياسات والجمهور. إن مثل هذا التعاون بين القطاعين العام والخاص ومراكز الفكر هو أحد الأساليب لحماية الانتخابات ومحاولة الحد من عدم ثقة الجمهور في العمليات الديمقراطية.
تجمع منظمة Digital Action غير الربحية حوالي 180 منظمة من منظمات المجتمع المدني من جميع أنحاء العالم لتبادل المعلومات حول مكافحة المعلومات الخاطئة والتضليل الانتخابي. تسعى منظمة Digital Action إلى مساءلة شركات التواصل الاجتماعي والحكومات عن حماية نزاهة الانتخابات. من خلال التعاون والتنظيم الشامل، تقوم شركة Digital Action بتتبع المعلومات الخاطئة والمضللة في الجنوب العالمي ونشر الوعي حول الأضرار الرقمية على منصات التواصل الاجتماعي لشركات التكنولوجيا في بلدان خارج أوروبا وأمريكا الشمالية. بالمقارنة مع بلدان أوروبا وأمريكا الشمالية، تنخرط شركات وسائل التواصل الاجتماعي في إدارة محتوى أقل قوة، وتتبع خطاب الكراهية وإزالته، ومراقبة شاملة للخطاب التحريضي في بلدان جنوب العالم. ولدفع شركات وسائل التواصل الاجتماعي إلى تخصيص موارد أكبر لبلدان خارج أمريكا الشمالية وأوروبا، هناك حاجة إلى تحالفات مثل تلك التي تحشدها منظمة العمل الرقمي للضغط على هذه الشركات للمطالبة باستراتيجيات وأساليب للحد من الأضرار عبر الإنترنت، لا سيما أثناء الانتخابات وبعدها. .
إذا كانت هناك حاجة إلى منظمات لتدقيق الحقائق، فإن الوقت قد حان الآن. العديد من منظمات المجتمع المدني ومنظمات بناء السلام في طليعة الجهود التي تحاول الحد من الصراعات العنيفة ومنعها. قبل وأثناء الانتخابات النيجيرية في عام 2023، عمل تحالف من المنظمات معًا للتحقق من ادعاءات السياسيين وفضح المعلومات الخاطئة والمضللة على منصات وسائل التواصل الاجتماعي. ما ساعد التحالف على معالجة المعلومات الخاطئة والمضللة هو فهم المشهد الإعلامي في البلاد وكيف يتلقى الناس أخبارهم، وتوقع القضايا التي قد تكون عرضة للمعلومات غير الدقيقة، والنشر السريع للتفاصيل الواقعية على وسائل التواصل الاجتماعي أو بالتعاون مع وسائل الإعلام التقليدية من خلال الشراكة مع الصحفيين. ومثل هذه التحالفات مطلوبة في بلدان مختلفة وبدعم مالي.
سيمثل هذا العام اختبارا كبيرا للديمقراطية، التي لا تزال تتعرض لضغوط من مجموعة من التهديدات، بما في ذلك الاستقطاب، وصعود الاستبداد، والمعلومات الخاطئة والمضللة التي تدعمها التكنولوجيا. وبالنسبة لعام 2024 وما بعده، يحتاج المجتمع الدولي إلى إظهار القيمة المستمرة للديمقراطية، ولا توجد طريقة أفضل للإعلان عن نموذج الحكم هذا من خلال المشاركة الكاملة للمواطنين في انتخابات نزيهة.