الجمعة, سبتمبر 20, 2024
13.9 C
Berlin

الأكثر قراءة

Most Popular

امن سيبراني ـ ضرورة استثمار الشركات في دفاعات الأمن السيبراني

business-standard – إن التبني السريع للذكاء الاصطناعي أدى إلى تعزيز النمو ولكنه فتح آفاقا لمجرمي الإنترنت لإساءة استخدام الذكاء الاصطناعي لشن هجمات سيبيرانية معقدة، مما سلط الضوء على الحاجة إلى استثمار الشركات في دفاعات الأمن السيبراني الاستباقية لمواجهة تحديات العصر الجديد.

قالت “شركة كاسبيرسكي”، وهي شركة عالمية للأمن السيبراني والخصوصية الرقمية، إنها كانت تدمج الذكاء الاصطناعي في منتجاتها وتسخير نماذج الذكاء الاصطناعي لمواجهة التهديدات وحماية المستخدمين من خلال جعل التقنيات أكثر مقاومة للأشكال الجديدة والمتطورة من الهجمات السيبرانية.

تنامت التحذيرات من أن مجرمي الإنترنت يستخدمون الذكاء الاصطناعي بطرق جديدة، بدءا من الاستفادة من ChatGPT لكتابة برامج ضارة وأتمتة الهجمات ضد مستخدمين متعددين إلى إساءة استخدام برامج الذكاء الاصطناعي لتتبع مدخلات الهواتف الذكية للمستخدمين (التقاط الرسائل وكلمات المرور وأكواد البنوك المحتملة).

واستشهدت “شركة كاسبيرسكي”، ببيانات عام 2023، حيث قامت الشركة بحماية 220 ألف شركة في جميع أنحاء العالم ومنعت حوالي 6.1 مليار هجوم بحلولها ومنتجاتها. وأضافت أنه خلال نفس الفترة، تم إنقاذ 325 ألف مستخدم فريد من سرقة الأموال المحتملة بناءً على أحصنة طروادة المصرفية. وفي المتوسط، كانت الشركة تكتشف أكثر من 411 ألف عينة ضارة كل يوم في عام 2024 مقابل 403 آلاف عينة من هذا القبيل قبل عام.

يقول فيتالي كاملوك، خبير الأمن السيبراني في فريق البحث والتحليل العالمي (GReAT) “إن عدد الهجمات الإلكترونية التي يتم إطلاقها ليس ممكنًا فقط بالموارد البشرية. إنهم (المهاجمون)… يستخدمون الأتمتة لمحاولة الاستفادة من الذكاء الاصطناعي”.

وفي بحث حديث حول استخدام الذكاء الاصطناعي لكسر كلمات المرور، وجد أن معظم كلمات المرور مخزنة مشفرة باستخدام وظيفة التجزئة التشفيرية. ويمكن تحويل كلمة مرور نصية ببساطة إلى سطر مشفر. ومع ذلك، قالت الشركة إن عكس هذه العملية أمر صعب.

وفقا لبيانات يوليو 2024، فإن أكبر مشكلة تسربت حتى الآن تتعلق بكلمات المرور كانت تتضمن حوالي 10 مليارات سطر تحتوي على 8.2 مليار كلمة مرور فريدة.

يقول أليكسي أنتونوف، كبير علماء البيانات في كاسبيرسكي، “لقد وجدنا أن 32% من كلمات مرور المستخدم ليست قوية بما يكفي ويمكن إعادتها من نموذج التجزئة المشفر باستخدام خوارزمية ووحدة معالجة الرسوميات الحديثة 4090 في أقل من 60 دقيقة.

وفقا للشركة، يمكن لممثلي التهديد استخدام نماذج لغوية كبيرة مثل ChatGPT-4o لتوليد نص احتيالي، مثل رسائل التصيد الاحتيالي المعقدة. يمكن للتصيد الاحتيالي المولد بالذكاء الاصطناعي التغلب على الحواجز اللغوية وإنشاء رسائل بريد إلكتروني مخصصة بناءً على معلومات وسائل التواصل الاجتماعي للمستخدمين.

يمكنه حتى تقليد أنماط الكتابة لأفراد معينين، مما يجعل هجمات التصيد الاحتيالي أكثر صعوبة في الكشف عنها. ذكرت “إيثان سيو”، المؤسس المشارك لشركة C4AIL، “في اللحظة التي ظهر فيها ChatGPT، كانت هناك زيادة بمقدار 90 مرة في رسائل البريد الإلكتروني العشوائية للمؤسسات من حيث التصيد الاحتيالي. كما أدى التبني العدوائي لـ GenAI من قبل المؤسسات إلى زيادة مساحة الهجوم. وفي الوقت نفسه، أضافت “سيو” أن المهاجمين السيبرانيين أصبحوا يبتكرون طرقا أكثر تطورا للعمل مع ظهور الذكاء الاصطناعي.

إن التحدي الرئيسي الآخر الذي ظهر مع ظهور الذكاء الاصطناعي هو التزييف العميق. هناك حالات لا حصر لها من المحتالين والمجرمين الذين يخدعون المستخدمين غير المطلعين من خلال عمليات احتيال انتحال شخصية المشاهير، مما يؤدي إلى خسائر مالية كبيرة.

كما يستخدم المجرمون التزييف لسرقة حسابات المستخدمين وإرسال طلبات مالية صوتية باستخدام صوت صاحب الحساب إلى الأصدقاء والأقارب. ومع ذلك، اقترح الخبراء أن اكتشاف التزييف العميق غير ممكن من الناحية الفنية في الوقت الحاضر.

قال كاملوك: “… هذا هو مستقبل البحث. إنها مسألة وقت قبل أن ترى شركات تقترح حلولاً ستحاول على الأقل معالجة مشكلة (اكتشاف التزييف العميق) هذه. أعتقد أن هذا هو مستقبل الأمن السيبراني”.

في السيناريو الحالي للتهديدات والهجمات المتزايدة، يُقترح على المنظمات أن تهدف إلى تحقيق وقت تشغيل بنسبة 100%للحفاظ على مرونة أعمالها السيبرانية. في الفضاء الإلكتروني، يشير وقت التشغيل إلى المدة التي يعمل فيها النظام، وتشير المرونة إلى استجابة الشركة لخرق أمني من خلال تحديد الحادث ومعالجته والتعافي منه.

يقول”أدريان هيا”، المدير الإداري لمنطقة آسيا والمحيط الهادئ في كاسبرسكي، إن نظام الشركة الذي يعمل بنسبة 100% سيؤدي إلى مرونة الأعمال. باستخدام الذكاء الاصطناعي، يحاول المهاجمون إعادة تشكيل وإصلاح وإعادة ترتيب البرامج الضارة لإنتاج المزيد من الاختلافات بناءً على الكود، مما يؤدي إلى خفض معدل اكتشاف البرامج الضارة لمكافحة الفيروسات.

وقال إيغور كوزنتسوف، مدير فريق البحث والتحليل العالمي في كاسبيرسكي، “21% من هجمات البريد العشوائي تعتمد على الذكاء الاصطناعي، وهي تصبح أسرع وأكبر حجما. لذا، بدلاً من التركيز على الذكاء الاصطناعي الهجومي، يجب تحسين الذكاء الاصطناعي الدفاعي.

وكجزء من الذكاء الاصطناعي الدفاعي، قالت الشركة إنها اكتشفت أكثر من 99% من البرامج الضارة بواسطة أنظمة آلية في عام 2023. وقال كاملوك إن التوازن بين اكتشاف البرامج الضارة والاختباء من برامج مكافحة الفيروسات “لا يزال قائماً ولا أحد يفوز حقًا في هذه المعركة”.

ومع الوتيرة التي يتم بها دمج هذه التقنيات في الاستخدام اليومي من قبل المهاجمين والمدافعين، يرى خبراء الأمن السيبراني ضرورة وضع اللوائح والأخلاقيات بسرعة في مجال الذكاء الاصطناعي والذكاء الاصطناعي.

ذكرت “سيو”: “سيتعين على اللوائح التنظيمية الآن اللحاق بالركب”، مضيفًا أنه على الرغم من “صعوبة تنظيمها لأن الحركة حدثت بالفعل”. الأخلاق هي أساس البشرية. “نحن بحاجة إلى إيلاء المزيد من الاهتمام للتعليم الأخلاقي للناس، وخاصة بين الجيل الجديد. وأضاف كاملوك “ومع الذكاء الاصطناعي، يصبح هذا الأمر أكثر أهمية لأنه يتمتع بالكثير من الإمكانات”.

https://hura7.com/?p=31743

الأكثر قراءة