الأربعاء, مايو 21, 2025
14.1 C
Berlin

الأكثر قراءة

Most Popular

إصدارات أسبوعية

آفاق ومحاذير الذكاء الاصطناعي العام… هل “النظام 0” هو الحلّ؟

جريدة الحرة

بقلم: روني عبد النور

قبل أيام، ودّع العالَم البابا فرنسيس. وهو الذي لطالما حذّر بشأن مآلات الذكاء الاصطناعي. تحذيرات شكّلت الخطوط العريضة لمذكّرة “Antiqua et Nova” الفاتيكانية الصادرة قبل أشهر. بالطبع، ليست المذكّرة يتيمة في هذا المضمار. فآفاق الذكاء الاصطناعي كثيرة. لكن تحدياته – وبالتالي محاذيره – كثيرة هي الأخرى. تخبرنا مجموعة “AI 2027” أن تأثير النسخ الخارقة من الذكاء ذاك في العقد المقبل سيكون هائلاً، بل سيفوق تأثير الثورة الصناعية. نُدخل الذكاء الاصطناعي العام، فيستحيل الهائل مدهشاً.

من التعليم والاقتصاد والعمل إلى الصحة والعلاقات والحرب، خُصّصت عدة فقرات من مذكّرة الفاتيكان للتمييز بين الذكاء الاصطناعي ونظيره البشري. وأكّدت أن “استخدام كلمة “ذكاء” بحدّ ذاتها في ما يتعلق بالذكاء الاصطناعي “قد يكون مُضلّلاً”. إذ لا ينبغي النظر إلى الأخير، كما ذهبت، على أنه “نسخة” اصطناعية من الذكاء البشري، بل نتاج له قابل للتوجيه نحو غايات إيجابية أو سلبية في آن.

أكثر فقرات المذكّرة أهمية أشارت إلى أن بعض الخلاصات البيانية قد تصل حدّ المساس “بجوهر الفرد، وربما حتى ضميره”. وليس في الأمر مبالغة. لكن الانعكاسات قريبة المدى ليست أقلّ أهمية. فتعاظُم الاهتمام بالمخاطر المباشرة للذكاء الاصطناعي جارٍ على قدم وساق بمعزل عن مستقبل نظري يُهدّد في سياقه الذكاء ذاك البشرية جمعاء. وهذا ما كشفته دراسة لجامعة زيورخ نشرتها مجلة “Proceedings of the National Academy of Sciences” قبل أيام.

يُركّز أحد التصورات على “المخاطر الوجودية” النظرية طويلة المدى للذكاء الاصطناعي. بينما تنصبّ وجهة نظر أخرى على “المخاوف الفورية” (مثل كيفية تضخيم الأنظمة الذكية للتحيّزات الاجتماعية ومساهمتها بالتضليل الإعلامي). فهل يصرف التركيز على الأولى الانتباه عن الثانية؟ أجرى الفريق ثلاث تجارب موسّعة عبر الإنترنت – شملت أكثر من 10,000 مشارك في الولايات المتحدة والمملكة المتحدة – عُرضت خلالها على بعض المشاركين عناوين رئيسية مُتنوعة تُصوّر الذكاء الاصطناعي كخطر كارثي.

تمثّل الهدف بدراسة ما إذا كانت التحذيرات من كارثة مستقبلية مرتبطة بالذكاء الاصطناعي قادرة على تحجيم الوعي بمخاطره المباشرة الأكثر إلحاحاً. لكن، بحسب الفريق، أظهرت النتائج قلقاً لدى المشاركين بشأن المخاطر الحالية يتجاوز قلقهم بشأن الكوارث المستقبلية المحتملة. ببياناتها المنهجية، سدّت الدراسة فجوة معرفية كبيرة، إذ غالباً ما تُثار مخاوف من تشتيت التركيز على سيناريوهات مستقبلية الانتباه عن المشاكل الآنية ذات الصلة. وبعبارات أخرى، الحاضر والمستقبل في عين إعصار الذكاء الاصطناعي، لا فرق.

بدوره، بيّن استطلاع رأي لجمعية النهوض بالذكاء الاصطناعي الأميركية (AAAI)، شمل 475 متخصصاً في المجال على مستوى العالم، اعتقاد غالبية راجحة بالحاجة إلى نهج مختلف لتجاوز قدرات الأخير الحالية. ولفت الاستطلاع إلى انعدام ثقة كبير بأن يقودنا الاستمرار بمسار تعزيز التقنيات الحالية إلى بلوغ عتبة ذكاء اصطناعي شبيه بالذكاء البشري – أي الذكاء الاصطناعي العام (AGI) إيّاه.

ندخل هنا في جدلية التعريفات. فوفقاً لنوريا أوليفر، المؤسسة المشاركة لمؤسسة “إليس أليكانتي”، يتمتع الذكاء الاصطناعي العام بنفس مستوى كفاءة الذكاء البشري، بما في ذلك مفاهيم معقّدة كالوعي الذاتي. لكنها تضيف بأننا بعيدون للغاية عن بلوغه – أو تحقيقه من أصله. وتتباين انطباعات العلماء حيال العتبة تلك وكيفية تجاوزها. فالبعض يرى أن لدى البشر المقومات المطلوبة، وإن لم تكن مثالية، إن هي عُزّزت بتركيبات تدريجية معيّنة ومدعّمة بقدرات حوسبية أعلى. بينما يفترض آخرون أن النهج الحالي لن يكون كافياً، حيث أن الطريق لا يقتصر على النماذج التي بحوزتنا، فحسب، حتى لو زوّدناها بقدرات استدلال أفضل.

والحال أن ثمة مختصّين يجادلون بأننا بحاجة لمناهج رمزية – عصبية قابلة للتوسّع إلى جانب تلك الظرفية المدجّجة بمعطيات الإدراك البيئي. وبانتظار حسم جدلية التعريفات، خرج علينا ديميس هاسابيس، الرئيس التنفيذي لشركة “ديب مايند” التابعة لـ”غوغل”، ملمّحاً بتوجّس إلى ضرورة إنشاء منظمة جامعة (على غرار الأمم المتحدة) للإشراف على تطوير الذكاء الاصطناعي العام. حيث توقعت ورقة بحثية جديدة لـ”غوغل” أن يحلّ الأخير بيننا بحلول عام 2030 وأن يدمّر البشرية إلى الأبد.

لم توضح الورقة، بالتحديد، كيف يمكن للذكاء الاصطناعي العام أن يؤدي إلى انقراض البشرية. لكنها صنّفت مخاطره ضمن أربع فئات رئيسة: سوء الاستخدام؛ واختلال التوافق؛ والأخطاء؛ والمخاطر الهيكلية. وفي هذا السياق، طرح باحثون في جامعة إيلون السؤال التالي: كيف سيغيّر الذكاء الاصطناعي طريقة تفكير البشر؟ وأتت الإجابة الشهر الماضي مرفقة بتحذير قاتم؛ إذ أبدى العديد من الخبراء خشية من أن يقلّل الذكاء ذاك من المهارات الأساسية للإنسان.

أجرى باحثو الجامعة استطلاعاً لآراء 301 من قادة التكنولوجيا والأكاديميين. فتوقّع أكثر من 60% من المشاركين أن يُحدث الذكاء الاصطناعي تغييرات في القدرات البشرية بطريقة “عميقة وذات مغزى” أو “جوهرية وثورية” خلال السنوات العشر المقبلة. لكن اللافت تظهّر بتخوّف المشاركين من تغييرات “سلبية في الغالب” في 12 سمة بشرية بحلول عام 2035 – بما فيها الذكاء الاجتماعي والعاطفي، والقدرة على التفكير العميق، والتعاطف، وتطبيق الأحكام الأخلاقية، والسلامة النفسية.

وفق التقرير، قد تشهد ثلاثة مجالات فقط تغييراً إيجابياً في الغالب: الفضول والقدرة على التعلم؛ واتخاذ القرار وحل المشكلات؛ والتفكير الإبداعي والابتكاري. هنا، يقول ريتشارد رايزمان، الزميل الأول غير المقيم في مؤسسة الابتكار الأميركية، في التقرير، إن العقد المقبل يُمثّل نقطة تحول في مسألة ما إذا كان الذكاء الاصطناعي “سيُعزّز البشرية أم سيُضعفها”. وأردف: “نُقاد راهناً بالاتجاه الخاطئ بفعل القوة المهيمنة للمجمع التكنولوجي الصناعي، لكن لا تزال لدينا فرصة لتصحيح الوضع”.

فهل، يا ترى، تتجلّى إحدى الفرص بحُسن استخدام “النظام 0” المختلف جذرياً عن عمليات التفكير البشري المعروفة بالنظامين 1 و2؟ إذ بينما يعتمد “النظام 1” على الحدس والسرعة، المستخدمَين غالباً لاتخاذ القرارات الفورية، يُشارك “النظام 2″، الأبطأ والأكثر تروّياً، بإنجاز تحليلات مُعقدة. أما “النظام 0″، الذي عرّف أسسه عالِم النفس الأميركي، دانيال كانمان، فيُخرج جزءاً من عملية التفكير بالاعتماد على الذكاء الاصطناعي، ويعالج كميات هائلة من البيانات في وقت قياسي، ما يتجاوز القدرات البشرية بأشواط.

على عكس النظامين 1 و2، حيث يُفسّر البشر البيانات مُباشرةً، من شأن “النظام 0” أن يُفوّض المعالجة الأولية للذكاء الاصطناعي، تاركاً للبشر مسؤولية إسباغ معنى على النتائج. وهكذا، وفق باحثين من جامعة القلب المقدس الإيطالية في مقال نُشر أواخر العام الماضي في مجلة “Nature Human Behaviour”، قد ينحو الذكاء الاصطناعي – بما هو امتداد معرفي لأدمغتنا – منحى التصرّف كآلة حاسبة جبّارة، ليبقى العقل البشري مسؤولاً عن تحليل المعلومات المُولّدة وتفسيرها.

الأمر لا – ولن – يخلو من المخاطر التي ليس أقلّها فقدان استقلاليتنا الفكرية النقدية والإبداعية. بيد أن مزايا “النظام 0” ليست بقليلة – مجدّداً، إن أُحسن استخدامه. وبتثبيت هذه الشراكة، مع التنبّه لعدم لعِب الذكاء الاصطناعي دوراً مُفرطاً في عملياتنا المعرفية الطبيعية، قد تحرز البشرية تقدّماً فلكياً في إدارة البيانات والأنظمة المعقدة.

الشراكة تلك قد ينتج عنها تكوُّن روابط عاطفية بين البشر وشخصيات الذكاء الاصطناعي. وهو تخوُّف “واعد” بذاته ويستدعي بحثاً آخر. لكن إلى حينه وبإزاء كائن رقمي فائق آخذ بالتكوّن، ستبقى المخاوف بشأن مصير العلاقات البشرية الخالصة الشغل الشاغل لأهل العِلم والدين سواء بسواء. مذكّرة “Antiqua et Nova” وتحذير مجموعة “AI 2027” مجرّد مثالين.

 

المراجع:

 

https://hura7.com/?p=51688

 

 

الأكثر قراءة