خاص – ترجمة – إن المعلومات المضللة التي تم إنشاؤها من خلال الذكاء الاصطناعي أو التزييف العميق لم تؤثر بشكل كبير على نتائج الانتخابات في المملكة المتحدة أو فرنسا أو أوروبا. ولا يمكن قول الشيء نفسه بشكل مقنع عن الولايات المتحدة.
كان لدى نصف سكان العالم، أو لا يزال لديهم، الفرصة للذهاب إلى صناديق الاقتراع في 72 دولة، من جنوب أفريقيا إلى جنوب المحيط الهادئ، إلى أوروبا والأمريكيتين – وهو أكبر عام انتخابي في التاريخ.
في مواجهة القلق المتزايد بشأن التضليل الذي يضر بسلامة النظام الديمقراطي والمخاطر الجديدة التي تفرضها أدوات الذكاء الاصطناعي المختلفة، اتخذ المواطنون في جميع أنحاء العالم خياراتهم، في مكان ما متأثرين بكل هذا وفي مكان آخر أقل قليلا.
هذا هو الاستنتاج الذي توصل إليه بحث أجراه مركز التكنولوجيا الناشئة والأمن (CETaS) في معهد آلان تورينج مؤخرًا. وقد قام بتحليل الانتخابات في المملكة المتحدة وفرنسا وأوروبا.
تأثير محدود في أوروبا
حددت الدراسة 16 حالة من التضليل أو التزييف العميق باستخدام الذكاء الاصطناعي خلال الانتخابات العامة في المملكة المتحدة، بينما تم تحديد 11 حالة فقط في انتخابات الاتحاد الأوروبي وفرنسا مجتمعة.
وتشير الورقة إلى أن المعلومات المضللة المدعومة بالذكاء الاصطناعي لم تؤثر بشكل ملموس على هذه العمليات الانتخابية، ولكن هناك مخاوف ناشئة بشأن حالات المحاكاة الساخرة الواقعية أو التزييف العميق التي قد تضلل الناخبين.
ومن بين المخاوف الأخرى التي سلطت عليها الأبحاث الضوء استخدام التشهير باستخدام المواد الإباحية المزيفة التي تستهدف السياسيين، وخاصة النساء، وهو ما يشكل مخاطر على السمعة والرفاهية.
لاحظ الباحثون أيضًا حالات ارتباك لدى الناخبين بين المحتوى السياسي المشروع والمواد التي تم إنشاؤها بواسطة الذكاء الاصطناعي، مما قد يؤدي إلى تقويض ثقة الجمهور في المعلومات المتاحة عبر الإنترنت.
وعلى الرغم من المخاوف، فإن الأبحاث تظهر أن الذكاء الاصطناعي له فوائد محتملة. فهو قادر على تضخيم الحملات البيئية، وتعزيز مشاركة الناخبين والسياسيين، وتعزيز سرعة التحقق من الحقائق.
وسلط الباحثون الضوء على حالات التضليل المرتبطة بالجهات الفاعلة المحلية والجهات التي ترعاها الدولة، بما في ذلك التدخل المرتبط بروسيا، على الرغم من عدم وجود تأثير كبير على نتائج الانتخابات.
تأثير الانتخابات الامريكية
كما قام باحثو CETaS بتحليل الانتخابات الأمريكية، حيث تم رصد العديد من الأمثلة على التضليل باستخدام الذكاء الاصطناعي. وشملت هذه الأمثلة المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي والذي تم استخدامه لتقويض المرشحين، ومزارع الروبوتات التي تحاكي الناخبين الأمريكيين أو نشر نظريات المؤامرة.
وفي حين لا يوجد دليل قاطع على أن مثل هذا المحتوى تلاعب بالنتائج – حيث لا توجد بيانات كافية – فإن الموضوعات التي تم إنشاؤها بواسطة الذكاء الاصطناعي لا تزال تؤثر على الخطاب الانتخابي، وتعزز الروايات المضللة، وترسيخ الاستقطاب السياسي.
لقد لاقى المحتوى الذي يعتمد على الذكاء الاصطناعي صدى واسع النطاق بين أولئك الذين كانت معتقداتهم متوافقة بالفعل مع التضليل، الأمر الذي أدى إلى تعزيز الانقسامات الإيديولوجية القائمة. كما لعبت الأشكال التقليدية من التضليل دورًا رئيسيًا.
وتوصل بحث آخر نُشر في مؤسسة بروكينجز إلى نفس النتيجة وهي أن التضليل لعب دورًا مهمًا في تشكيل وجهات النظر العامة حول المرشحين والقضايا التي تمت مناقشتها خلال الحملات الانتخابية.
ويذكر مؤلفو المقال قصصًا كاذبة عن المهاجرين، ومقاطع فيديو وصور مفبركة تستهدف المرشح الديمقراطي، ومزاعم مضللة حول الجريمة وأمن الحدود كأمثلة على المعلومات المضللة.
ويزعمون أن هذه الروايات تضخمت بسبب وسائل التواصل الاجتماعي والميمات ووسائل الإعلام السائدة، وتفاقمت بسبب أدوات الذكاء الاصطناعي التي سهلت خلق حكايات مزيفة واقعية. وعلى الرغم من تدقيق الحقائق المستقل الذي دحض العديد من الادعاءات الكاذبة، إلا أنها لا تزال تؤثر على تصور الناخبين، وخاصة فيما يتعلق بالهجرة والاقتصاد.
اتخاذ التدابير
ولمنع انتشار الروايات الضارة، وتقليل الضجيج المحيط بالتهديدات التي تولدها الذكاء الاصطناعي، ومكافحة المعلومات المضللة، تدعو جميع الأبحاث المشار إليها إلى اتخاذ إجراءات في مجالات رئيسية.
يقترح باحثو CETaS تعزيز القوانين المتعلقة بالتشهير والخصوصية والانتخابات وتضمين سجلات المنشأ في المحتوى الحكومي لضمان الأصالة. كما يدعون إلى تطوير معايير للكشف عن التزييف العميق وتوسيع الإرشادات للأحزاب السياسية بشأن استخدام الذكاء الاصطناعي.
ويتعلق اقتراح آخر بمواجهة المشاركة من خلال تعديل المبادئ التوجيهية للصحافة لإدارة تغطية المعلومات المضللة، وإشراك الصحفيين ومدققي الحقائق في تحسين استراتيجيات الاستجابة.
وتدعو CETaS أيضًا إلى تمكين المجتمع من خلال سد الفجوات التنظيمية، ومنح المجموعات الأكاديمية والمجتمع المدني إمكانية الوصول إلى البيانات المتعلقة بالحملات الضارة، وإنشاء برامج محو الأمية الرقمية على مستوى البلاد.
وتدعو أبحاث مؤسسة بروكينجز إلى تعزيز مراقبة المحتوى من قبل منصات التواصل الاجتماعي، وبرامج محو الأمية الرقمية لمساعدة الناس على تحديد المعلومات الكاذبة، وفهم الحوافز المالية التي تدفع إلى انتشار الأكاذيب.
كما يسلط الضوء على مخاطر الاستقطاب السياسي، حيث يميل الناس أكثر إلى تصديق ونشر المعلومات السلبية عن خصومهم، محذرا من أنه إذا استمرت هذه الاتجاهات، فإنها قد تضر بالحكم والثقة في الديمقراطية.
ورغم أنه لا يزال من غير الممكن إدراك النطاق الإجمالي لتأثير الذكاء الاصطناعي في الانتخابات بشكل كامل، فيبدو أن العالم قد تجنب في الوقت الحالي الفوضى الكاملة التي يمكن للذكاء الاصطناعي أن يزرعها في مثل هذه العمليات. ومع ذلك، فإن استخدام أدوات الذكاء الاصطناعي من قبل الجهات الفاعلة السياسية سوف يتزايد.