الجمعة, أبريل 19, 2024
7.8 C
Berlin

الأكثر قراءة

Most Popular

الاتحاد الأوروبي ـ ماذا يعني قانون تنظيم الذكاء الاصطناعي بالنسبة للمستخدمين؟

theguardian – وافق البرلمان الأوروبي يوم الأربعاء على قانون الذكاء الاصطناعي الذي اقترحه الاتحاد الأوروبي، ويعد علامة فارقة في تنظيم التكنولوجيا. ويعد التصويت خطوة مهمة نحو تقديم التشريع، الذي يتطلب الآن موافقة رسمية من وزراء الدول الأعضاء في الاتحاد الأوروبي.

ولن يلاحظ المستهلكون فرقا فوريا، نظرا لأن القانون سيتم تنفيذه على مدى ثلاث سنوات، لكنه سيجيب على بعض المخاوف بشأن التكنولوجيا.

وقال غيوم كونيسون، الشريك في شركة لينكلاترز للمحاماة: “سيكون المستخدمون قادرين على الوثوق بأن أدوات الذكاء الاصطناعي التي يمكنهم الوصول إليها قد تم فحصها بعناية وأنها آمنة للاستخدام”. “يشبه هذا قدرة مستخدمي التطبيقات المصرفية على الوثوق في أن البنك قد اتخذ إجراءات أمنية صارمة لتمكينهم من استخدام التطبيقات بأمان.”

إن مشروع القانون مهم خارج الاتحاد الأوروبي لأن بروكسل هي جهة تنظيمية مؤثرة في مجال التكنولوجيا، كما يتضح من تأثير اللائحة العامة لحماية البيانات على إدارة بيانات الأشخاص. يمكن لقانون الذكاء الاصطناعي أن يفعل الشيء نفسه.

“ستراقب العديد من الدول الأخرى ما يحدث في الاتحاد الأوروبي بعد اعتماد قانون الذكاء الاصطناعي. وأضاف كونيسون أنه من المرجح أن يتم تقليد نهج الاتحاد الأوروبي فقط إذا ثبت نجاحه.

كيف يحدد مشروع القانون الذكاء الاصطناعي؟

التعريف الأساسي للذكاء الاصطناعي هو نظام كمبيوتر ينفذ المهام التي عادة ما تربطها بمستويات الذكاء البشري، مثل كتابة مقال أو رسم صورة.

يحتوي القانون نفسه على نظرة أكثر تفصيلاً، حيث يصف تقنية الذكاء الاصطناعي التي ينظمها بأنها “نظام قائم على الآلة مصمم للعمل بمستويات مختلفة من الاستقلالية”، والذي يغطي بوضوح أدوات مثل ChatGPT.

قد يُظهر هذا النظام “القدرة على التكيف بعد النشر” – أي أنه يتعلم أثناء العمل – ويستنتج من المدخلات التي يتلقاها “كيفية توليد مخرجات مثل التنبؤات أو المحتوى أو التوصيات أو القرارات التي يمكن أن تؤثر على البيئات المادية أو الافتراضية”. يغطي هذا التعريف روبوتات الدردشة، وأيضًا أدوات الذكاء الاصطناعي التي، على سبيل المثال، تقوم بغربلة طلبات العمل.

وكما هو مفصل أدناه، يحظر التشريع الأنظمة التي تشكل “خطرًا غير مقبول”، لكنه يستثني أدوات الذكاء الاصطناعي المصممة للاستخدام العسكري أو الدفاعي أو الأمن القومي، وهي القضايا التي تثير قلق العديد من المدافعين عن سلامة التكنولوجيا. كما لا تنطبق على الأنظمة المصممة للاستخدام في البحث العلمي والابتكار.

وقال كيليان فيث ديتلمان، نائب رئيس قسم السياسات في المعهد الألماني : “نخشى أن الإعفاءات المتعلقة بالأمن القومي في قانون الذكاء الاصطناعي تمنح الدول الأعضاء تفويضا مطلقا لتجاوز لوائح الذكاء الاصطناعي الحاسمة وخلق خطر كبير لإساءة الاستخدام”.

كيف يعالج مشروع القانون المخاطر التي يشكلها الذكاء الاصطناعي؟

سيتم حظر بعض الأنظمة وتشمل هذه الأنظمة التي تسعى إلى التلاعب بالأشخاص لإحداث الضرر؛ وأنظمة “التسجيل الاجتماعي” التي تصنف الأشخاص على أساس السلوك الاجتماعي أو الشخصية، مثل النظام الموجود في رونجتشينج، الصين، حيث قامت المدينة بتقييم جوانب سلوك السكان؛ محاولات على غرار تقرير الأقلية في العمل الشرطي التنبؤي؛ مراقبة مشاعر الناس في العمل أو في المدارس؛ أنظمة “التصنيف البيومتري” التي تغربل الأشخاص بناءً على بياناتهم البيومترية (مسح شبكية العين، والتعرف على الوجه، وبصمات الأصابع) لاستنتاج أشياء مثل العرق أو التوجه الجنسي أو الآراء السياسية أو المعتقدات الدينية؛ وتجميع قواعد بيانات التعرف على الوجه من خلال استخراج صور الوجه من الإنترنت أو الدوائر التلفزيونية المغلقة.

استثناءات لإنفاذ القانون

كان التعرف على الوجه عاملاً مثيراً للجدل في التشريع. يُحظر استخدام أنظمة تحديد الهوية البيومترية في الوقت الفعلي – والتي تغطي تقنية التعرف على الوجه ولكنه مسموح به لإنفاذ القانون في عدد من الظروف. ويمكن لسلطات إنفاذ القانون استخدام هذه التكنولوجيا للعثور على شخص مفقود أو منع وقوع هجوم إرهابي، لكنها ستحتاج إلى موافقة السلطات – على الرغم من إمكانية نشرها في ظروف استثنائية دون موافقة مسبقة.

ماذا عن الأنظمة المحفوفة بالمخاطر ولكنها غير محظورة؟

يحتوي القانون على فئة خاصة للأنظمة “عالية المخاطر” التي ستكون قانونية ولكن يتم الالتزام بها عن كثب. وتشمل الأنظمة المستخدمة في البنية التحتية الحيوية، مثل المياه والغاز والكهرباء، أو تلك المنتشرة في مجالات مثل التعليم والتوظيف والرعاية الصحية والخدمات المصرفية. وسيتم أيضًا تناول بعض أنظمة إنفاذ القانون والعدالة ومراقبة الحدود. على سبيل المثال، النظام المستخدم في تحديد ما إذا كان سيتم قبول شخص ما في مؤسسة تعليمية، أو ما إذا كان سيحصل على وظيفة، سيتم اعتباره عالي المخاطر.

ويتطلب القانون أن تكون هذه الأدوات دقيقة، وأن تخضع لتقييمات المخاطر، وأن تخضع لإشراف بشري، وأن يتم تسجيل استخدامها أيضًا. يمكن لمواطني الاتحاد الأوروبي أيضًا أن يطلبوا توضيحات حول القرارات التي اتخذتها أنظمة الذكاء الاصطناعي هذه والتي أثرت عليهم.

ماذا عن الذكاء الاصطناعي التوليدي؟

الذكاء الاصطناعي التوليدي – وهو المصطلح الذي يشير إلى الأنظمة التي تنتج نصوصًا وصورًا وفيديو وصوتًا معقولًا من خلال مطالبات بسيطة – مشمول بأحكام ما يسميه القانون أنظمة الذكاء الاصطناعي “ذات الأغراض العامة”.

سيكون هناك نهج ذو مستويين. ضمن المستوى الأول، سيحتاج جميع مطوري النماذج إلى الالتزام بقانون حقوق الطبع والنشر في الاتحاد الأوروبي وتقديم ملخصات تفصيلية للمحتوى المستخدم لتدريب النموذج. ومن غير الواضح كيف ستكون النماذج المدربة بالفعل قادرة على الامتثال، وبعضها يتعرض بالفعل لضغوط قانونية.

ترفع صحيفة نيويورك تايمز دعوى قضائية ضد OpenAI وترفع Getty Images دعوى قضائية ضد StabilityAI، بدعوى انتهاك حقوق الطبع والنشر. سيتم إعفاء النماذج مفتوحة المصدر، المتوفرة للعامة، على عكس النماذج “المغلقة” مثل GPT-4 الخاصة بـ ChatGPT، من متطلبات حقوق الطبع والنشر.

أما المستوى الأكثر صرامة فهو محجوز للنماذج التي تشكل “خطرا نظاميا” – استنادا إلى تقييم “ذكائها” الأكثر شبها بالبشر – ومن المتوقع أن يشمل روبوتات الدردشة ومولدات الصور.

تشمل التدابير الخاصة بهذا المستوى الإبلاغ عن الحوادث الخطيرة التي تسببها النماذج، مثل الوفاة أو انتهاك الحقوق الأساسية، وإجراء “اختبار الخصومة”، حيث يحاول الخبراء تجاوز ضمانات النموذج.

ماذا يعني التزييف العميق؟

يتعين على الأشخاص أو الشركات أو الهيئات العامة التي تصدر محتوى مزيفًا أن تكشف عما إذا كان المحتوى قد تم إنشاؤه بشكل مصطنع أو تم التلاعب به. وإذا تم ذلك من أجل عمل فني أو إبداعي أو ساخر “من الواضح”، فلا يزال يتعين وضع علامة عليه، ولكن “بطريقة مناسبة لا تعيق عرض العمل أو الاستمتاع به”.

يجب وضع علامة على النص الذي تنتجه روبوتات الدردشة والذي يعلم الجمهور “بشأن المسائل ذات الاهتمام العام” على أنه من صنع الذكاء الاصطناعي، ولكن ليس عندما يخضع لعملية مراجعة بشرية أو مراقبة تحريرية – وهو ما يستثني المحتوى الذي خضع لرقابة بشرية. ويحتاج مطورو أنظمة الذكاء الاصطناعي أيضًا إلى التأكد من إمكانية اكتشاف مخرجاتهم على أنها من صنع الذكاء الاصطناعي، عن طريق وضع علامة مائية على المواد أو وضع علامة عليها بطريقة أخرى.

ما هو رأي شركات الذكاء الاصطناعي والتكنولوجيا؟

وقد تلقى مشروع القانون ردود فعل متباينة. وتدعم أكبر شركات التكنولوجيا هذا التشريع علنًا من حيث المبدأ، في حين تشعر بالقلق من التفاصيل. وقالت أمازون إنها ملتزمة بالتعاون مع الاتحاد الأوروبي “لدعم التطوير الآمن والمأمون والمسؤول لتكنولوجيا الذكاء الاصطناعي”، لكن مارك زوكربيرج حذر من الإفراط في التنظيم. وقال رئيس شؤون الاتحاد الأوروبي في الشركة: “من المهم ألا نغفل عن الإمكانات الهائلة للذكاء الاصطناعي لتعزيز الابتكار الأوروبي وتمكين المنافسة، والانفتاح هو المفتاح هنا”.

وفي السر، كانت الردود أكثر أهمية. حذر أحد كبار الشخصيات في إحدى الشركات الأمريكية من أن الاتحاد الأوروبي قد وضع حدًا لقوة الحوسبة المستخدمة لتدريب نماذج الذكاء الاصطناعي أقل بكثير من المقترحات المماثلة في الولايات المتحدة. النماذج التي تم تدريبها بقوة أكبر من 10 إلى قوة 25 “تخبط”، وهو مقياس لقوة الحوسبة، ستواجه متطلبات مرهقة لإثبات أنها لا تسبب مخاطر على النظام. وقد يدفع هذا الشركات الأوروبية إلى زيادة حصصها والانتقال غربًا لتجنب قيود الاتحاد الأوروبي.

ما هي العقوبات المنصوص عليها في القانون؟

ستتراوح الغرامات بين 7.5 مليون يورو أو 1.5% من إجمالي مبيعات الشركة في جميع أنحاء العالم – أيهما أعلى – لتقديم معلومات غير صحيحة إلى المنظمين، إلى 15 مليون يورو أو 3% من إجمالي مبيعات الشركة في جميع أنحاء العالم لانتهاك بعض أحكام القانون، مثل التزامات الشفافية. إلى 35 مليون يورو، أو 7% من إجمالي المبيعات، لنشر أو تطوير أدوات الذكاء الاصطناعي المحظورة. ستكون هناك غرامات أكثر تناسبًا للشركات الصغيرة والشركات الناشئة.

ستدخل الالتزامات حيز التنفيذ بعد 12 شهرًا، لذلك في وقت ما من العام المقبل، بمجرد أن يصبح القانون قانونًا، يدخل حظر فئات معينة حيز التنفيذ بعد ستة أشهر. أمام مقدمي وموزعي الأنظمة عالية المخاطر ثلاث سنوات للامتثال. سيكون هناك أيضًا مكتب أوروبي جديد للذكاء الاصطناعي سيضع المعايير وسيكون هيئة الإشراف الرئيسية على نماذج GPAI.

https://hura7.com/?p=18560

 

الأكثر قراءة