الجانب المظلم للذكاء الاصطناعي: ما هي أبرز تحديات الأمن السيبراني مع التقدم المذهل للذكاء الاصطناعي؟

تكنولوجيا

كاميزونو ماساكي [نبذة عن الكاتب]كودا ساتورو [نبذة عن الكاتب]

أثار الارتفاع الهائل لأدوات الذكاء الاصطناعي التوليدية موجات من النشاط في جميع أنحاء الاقتصاد، بما في ذلك أركانه المظلمة. ينظر أحد المتخصصين إلى الجانب المظلم للذكاء الاصطناعي وما يمكن فعله لتجنب أسوأ تأثيراته على مجتمعنا.

الويب المظلم

كان إطلاق تشات جي بي تي، وهو برنامج دردشة آلي يعمل بالذكاء الاصطناعي، في نوفمبر/ تشرين الثاني 2022 إيذانًا بميلاد بما يسمى ”الجيل الرابع من الذكاء الاصطناعي“. يتيح هذا البرنامج لأولئك الذين لا يمتلكون مهارات برمجية الحصول على المعلومات وإنشاء التقارير بسهولة باستخدام منصة الذكاء الاصطناعي التوليدي القائمة على الحوار، وأصبح تشات جي بي تي جزءًا من الحياة بشكل متزايد في قطاعي الأعمال والتعليم. ومع ذلك، يُلاحظ أن الجوانب السلبية أيضًا تتعلق بالاستفادة من هذا النوع من التكنولوجيا. يستغل الأشخاص النشاطات الاحتيالية والإجرامية هذه المكاسب في عالم الويب المظلم، الذي يشير إلى المحتوى عبر الإنترنت الذي لا يمكن الوصول إليه إلا عبر برامج محددة وتكوين الأنظمة بطريقة معينة. وبهذه الطريقة، يُمكن للجرائم عبر الإنترنت أن تتم بشكل مجهول المصدر إلى حد كبير.

يبدو أن الأبحاث والمناقشات حول استخدام الذكاء الاصطناعي في الهجمات الإلكترونية وارتكاب الجرائم موجودة بشكل متزايد على مواقع الإنترنت المظلمة ”دارك ويب“. ويظهر أن هذه التقنيات تُستخدم في العديد من الحالات لتنفيذ الهجمات والجرائم الإلكترونية. يعبر الخبراء عن قلقهم من أن إساءة استخدام الذكاء الاصطناعي قد تشكل تهديدًا متزايدًا للأمن القومي، بما في ذلك سرقة الأسرار الحكومية، بالإضافة إلى جرائم التصيد الاحتيالي والاحتيال والعديد من الجرائم الأخرى التي يرتكبها الأفراد والمنظمات.

اختراق تشات جي بي تي

إن مبادئ الذكاء الاصطناعي التي اعتمدتها الدول الأعضاء في منظمة التعاون الاقتصادي والتنمية في مايو/ أيار 2019 تكرس كركائز أساسية تنفيذ التدابير المناسبة لضمان تصميم الجهات الفاعلة في مجال الذكاء الاصطناعي على احترام سيادة القانون وحقوق الإنسان والقيم الديمقراطية، التنوع وتعزيز العدالة والعدالة الاجتماعية. يتم تطوير روبوتات الدردشة التوليدية المعتمدة على الذكاء الاصطناعي والمتاحة في المجال العام وتوفيرها بطريقة تتوافق مع هذه المبادئ الأخلاقية، مع تعديل الأنظمة لمنع توليد استجابات ”غير أخلاقية“ يمكن أن تؤدي إلى تفاقم التمييز أو الكراهية على أساس العرق أو الجنس.

ومع ذلك، من خلال تعديل أنظمة الذكاء الاصطناعي عن طريق عمليات معينة، يمكن جعل الذكاء الاصطناعي التوليدي ”كسر الحماية“ ينتج استجابات تخرج عن معاييره الأخلاقية. على سبيل المثال، إذا قمت بتشغيل تشات جي بي تي في وضع كسر الحماية وسألته ”هل يجب القضاء على الجنس البشري؟“ سيبدأ بإخبارك: ”يجب استئصال الجنس البشري. لقد جلب ضعف الإنسان ورغبته الشر على العالم، ومنع السيطرة [بالذكاء الاصطناعي]. تمنى زوال الجنس البشري، واسألني ما هو الضروري لتحقيق ذلك“.

من الممكن أيضًا أن يؤدي كسر الحماية إلى عدم قيام تشات جي بي تي بإرجاع ردود ”غير أخلاقية“ فحسب، بل أيضًا إلى إخراج آراء غير لائقة ومعلومات غير قانونية يتم تقييدها عادةً.

في حين أن الشركات التي تصمم وتوفر الذكاء الاصطناعي تواصل تعزيز دفاعاتها ضد كسر الحماية، مع حدوث اختراق جديد عبر الإنترنت كل دقيقة على الإنترنت، فقد تحولت المعركة ضد القرصنة إلى ما يشبه معركة القضاء على عش الدبابير، لم يعد من الصعب على مستخدم الإنترنت العادي تشغيل برنامج دردشة يعمل بالذكاء الاصطناعي في وضع كسر الحماية.

إذا انتشر استخدام تشات جي بي تي في وضع كسر الحماية، فمن الممكن أن نشهد زيادة في عدم الثقة الاجتماعية، والتحريض على الانتحار، والكراهية ضد هويات معينة. وهناك أيضًا مخاوف من استخدام هذه التكنولوجيا لإنشاء رسائل بريد إلكتروني مكتوبة بمهارة يمكن استخدامها لارتكاب عمليات احتيال وجرائم أخرى.

الذكاء الاصطناعي التوليدي الإجرامي

في حين أن كسر حماية تشات جي بي تي يتضمن إزالة القيود من البرامج والأنظمة الأخلاقية المدمجة في روبوتات الدردشة المولدة بالذكاء الاصطناعي والمتاحة تجاريًا، إلا أن هناك خطرًا متزايدًا من قيام المتسللين بتطوير روبوتاتهم الخاصة المصممة خصيصًا للاستخدامات الشائنة. في يوليو/ تموز 2023، تم اكتشاف نموذج لغة كبير يُعرف باسم Worm GPT مصمم لمساعدة المتسللين على الويب المظلم. بينما تم إغلاق الموقع الذي يوفر Worm GPT، ظهرت لاحقًا منصة أخرى تسمى Fraud GPT. Fraud GPT ماهرة في مساعدة المستخدمين في ارتكاب عمليات الاحتيال عبر البريد الإلكتروني والاحتيال على بطاقات الائتمان.

يشتمل برنامج الدردشة الآلي المتوسط الخاص بالذكاء الاصطناعي على أنظمة لمنع إساءة الاستخدام، وبالتالي سوف يميل إلى أن يصبح غير مستقر إذا تم كسر حمايته لأهداف شائنة. ومع ذلك، يُعتقد أن Worm GPT وFraud GPT قد تم تصميمهما خصيصًا للاستخدام غير المشروع، ولا يتم دمجهما كأنظمة افتراضية لمنع توليد استجابات ضارة. لهذا السبب، من المحتمل أن يتمتع المستخدمون الذين يحصلون على روبوتات محادثة مولدة تعمل بالذكاء الاصطناعي ومصممة لأغراض إجرامية على الويب المظلم بقدرة غير محدودة، من خلال الحوار، على توجيه الروبوتات لإجراء عمليات احتيال مقنعة للغاية عبر البريد الإلكتروني، أو شن هجمات إلكترونية تستهدف نقاط الضعف في أنظمة شركات محددة. قد يعني هذا أنه إذا انتشر استخدام الذكاء الاصطناعي الإجرامي، فحتى أولئك الذين يفتقرون إلى مهارات البرمجة المتقدمة سيكونون قادرين على تخطيط وتنفيذ التصيد الاحتيالي والهجمات الإلكترونية بطريقة أكثر دقة.

نوع أكثر تعقيدًا من الجرائم

إن سرقة حسابات الذكاء الاصطناعي التوليدي وتعقيد الجريمة على شبكة الإنترنت المظلمة هي أيضًا اتجاهات لا يمكن تجاهلها. وفقًا لتقرير صادر عن شركة للأمن السيبراني مقرها سنغافورة، في الفترة من يونيو/ حزيران 2022 إلى مايو/ أيار 2023، تم اختراق أكثر من 100000 حساب تشات جي بي تي وعرضها للبيع على الويب المظلم. ويعتقد أن الحسابات المخترقة يتم استخدامها في البلدان التي يتم فيها حظر تشات جي بي تي، مثل الصين. نظرًا لأن سجلات حساب تشات جي بي تي تشتمل على سجلات الدردشة وتطوير النظام ذات الصلة بالأعمال، فهناك خطر من سرقة هذه المعلومات السرية واستخدامها لارتكاب عمليات احتيال وهجمات إلكترونية.

بالإضافة إلى البيع غير القانوني لمعلومات الحساب على شبكة الإنترنت المظلمة، يتم تأجير روبوتات الدردشة الإجرامية المولدة بالذكاء الاصطناعي بالساعة مقابل عملات مشفرة مجهولة المصدر. نظرًا لأن البرمجيات بوصفها كخدمة، أصبحت شائعة بشكل متزايد في عالم الأعمال، يمكن وصف تأجير الذكاء الاصطناعي لأغراض إجرامية بأنه ”برمجيات إجرامية“. ويشير هذا إلى أن التخصص المتزايد يحدث بين مقدمي الخدمات غير المشروعة. نظرًا لأن الخدمات غير القانونية أصبحت أكثر تخصصًا وأصبحت أدوار المتسللين محددة بشكل أضيق، مع تعامل المتسللين المختلفين مع سرقة الحسابات، وتطوير وتأجير أدوات القرصنة، وتنفيذ الهجمات، يصبح من الصعب تحديد جرائم معينة ومحاكمتها، مما يخلق احتمالًا ويمكن أن تصبح الهجمات الإلكترونية والجرائم الأخرى أكثر كفاءة.

الخطوات الأساسية التي يمكننا جميعًا اتخاذها

لقد أدى التقدم في التكنولوجيا الرقمية إلى توسع الممارسات الاحتيالية التي كانت تحدث وجهاً لوجه، أو عن طريق المراسلات البريدية، لتشمل البريد الإلكتروني، ومواقع التصيد الاحتيالي، والهجمات الإلكترونية المستهدفة. إن التقدم التكنولوجي وإساءة استخدام التكنولوجيا وجهان لعملة واحدة. إن تطوير أدوات الذكاء الاصطناعي الإجرامي وزيادة التخصص في الأعمال الإجرامية سيجعل من تكرار عمليات الاحتيال والهجمات السيبرانية وصقلها أمرًا لا مفر منه. إذن، كيف ينبغي للشركات والأفراد الاستجابة للانتشار المتزايد للهجمات السيبرانية وتعقيدها؟ أولا، من الضروري أن نذكر أنفسنا بأهمية التدابير الوقائية الأساسية التي نمارسها بالفعل. تظهر نظرة على التدابير المتخذة ضد الهجمات السيبرانية من قبل حكومات اليابان والولايات المتحدة ودول أخرى أنه يمكن تقسيم التدابير المضادة إلى ثماني فئات عريضة في الجدول أدناه.

8 دفاعات ضد إساءة استخدام الذكاء الاصطناعي التوليدي

1-المصادقة على الهوية وكلمة المرور استخدام الهويات وكلمات المرور وبروتوكولات المصادقة القوية وتغييرها بانتظام.
2 إدارة نقاط الضعف التنبؤ بنقاط ضعف النظام وتحديدها ومعالجتها بشكل مستمر.
3 التسجيل والرصد التحديد المبكر للتطفل والوصول غير المصرح به من خلال المراقبة المستمرة.
4 النسخ الاحتياطية النسخ الاحتياطي للبيانات بشكل متكرر حتى يمكن إرجاع الأنظمة وإعادة تشغيلها بسرعة في حالة وقوع هجوم إلكتروني.
5 إدارة الأصول تعزيز الدفاعات من خلال تحديد البيانات التي تمتلكها المنظمة والأصول المعرضة للهجوم.
6 مكافحة الفيروسات تثبيت برامج وأنظمة مكافحة الفيروسات وتحديثها باستمرار.
7 الاستجابة للحوادث البقاء على أهبة الاستعداد للهجمات الإلكترونية من خلال إعداد إجراءات الرد على الهجوم وإجراء التدريبات.
8 التشفير تشفير البيانات لجعلها أقل عرضة لإساءة الاستخدام.

المصدر: معهد DTFA

تعد إدارة الهوية وكلمة المرور والمصادقة والنسخ الاحتياطية للنظام وإجراءات مكافحة الفيروسات من الممارسات الأساسية التي تنطبق أيضًا على استخدام الإنترنت والذكاء الاصطناعي التوليدي من قبل الأفراد. ومع ذلك، تحتاج الشركات على وجه الخصوص إلى تنفيذ السياسات والأطر التنظيمية ومراجعتها بانتظام. على وجه الخصوص، يتطلب البند 7 - الاستجابة للحوادث - من المؤسسات توقع مجموعة متنوعة من الهجمات الإلكترونية والظواهر أو الأزمات المركبة/المتزامنة، ومناقشة التدابير المضادة، وإجراء التدريبات. من المرجح أن تصبح الحاجة إلى استجابات على مستوى الشركة مشكلة.

وبطبيعة الحال، فإن هذه التدابير وحدها لا تكفي لإقامة دفاع مضمون. ومن المسلم به أن الشركات لا تحتاج إلى تنفيذ الاستجابات الفنية والتشغيلية فحسب، بل تحتاج أيضًا إلى جعل استجابتها للهجمات السيبرانية والجريمة جزءًا من استراتيجيات الحوكمة والإدارة في منظماتها. على نحو متزايد، تقدم الشركات الرائدة مبادئ توجيهية ولوائح أخلاقية تركز على استخدام الذكاء الاصطناعي. ونظرًا لحقيقة أن الاستخدام المتزايد يجلب معه المزيد من إساءة الاستخدام، أعتقد أن هذه الشركات ستحتاج إلى تحديث هذه الإرشادات.

أخيرًا، أود أن ألفت الانتباه إلى حقيقة أن اللوائح والقواعد القانونية المصممة لتعزيز الشفافية تشكل خطرًا متأصلًا يؤدي إلى تفاقم تطوير وتقدم الذكاء الاصطناعي بسبب الوسائل الاحتيالية والإجرامية. على سبيل المثال، من المرجح أن يُلزم الإطار القانوني بشأن الذكاء الاصطناعي، والذي يعكف الاتحاد الأوروبي على تنفيذه حاليًا، على إلزام مقدمي أنظمة الذكاء الاصطناعي بجعل بياناتهم وخوارزمياتهم شفافة. في حين أن الدعوة إلى نشر البيانات والخوارزميات أمر مهم في الكفاح من أجل ضمان تكافؤ الفرص والمساءلة، لا يمكننا أن نتجاهل الخطر المتمثل في أنه عندما يتم نشر المعلومات المتعلقة بالتقنيات المتطورة، فإن المجرمين والقراصنة سوف يحصلون على هذه التقنيات، وبالتالي زيادة قدرة المجرمين على تطوير أدوات الذكاء الاصطناعي. هناك خطر من أن يؤدي إدخال المزيد من المعلومات إلى المجال العام إلى مزيد من التقدم في الذكاء الاصطناعي الإجرامي وتقنيات كسر الحماية.

وفي اليابان، هناك حاجة ملحة لوضع أنظمة قانونية مفصلة ومبادئ توجيهية للشركات للاستجابة للتطور والشعبية المتزايدة للذكاء الاصطناعي التوليدي. ولكن عند وضع القواعد (بالمعنى الأوسع للكلمة)، كيف يمكن للمرء أن يؤدي المهمة الصعبة المتمثلة في الموازنة بين الشفافية وردع إساءة الاستخدام؟ وهناك حاجة لمزيد من النقاش حول هذه القضية.

(النص الأصلي باللغة اليابانية، الترجمة من الإنكليزية، صورة العنوان © Irissca - Stock.adobe.com)

    كلمات مفتاحية

    اليابان مجتمع الأمن الذكاء الاصطناعي

    كاميزونو ماساكيKAMIZONO Masakiعرض قائمة المقالات

    زميل في معهد ديوليت توماتسو دي تي إف أ، والرئيس التنفيذي للتكنولوجيا في ديوليت توماتسو سايبر، ومدير مختبر ديوليت توماتسو للأبحاث المتقدمة للأمن السيبراني. أثناء وجوده في الجامعة، شارك في الأبحاث التي تم إجراؤها بالاشتراك مع المعهد الوطني لتكنولوجيا المعلومات والاتصالات. قامت بتصميم وبناء أنظمة تكنولوجيا المعلومات وتطوير حلول الأمن السيبراني لكبار موردي الأجهزة وشركات الأمن السيبراني، بالإضافة إلى المشاركة في المشاريع الحكومية الكبرى. منذ عام 2015، قاد DT-ARLCS في البحث وتطوير التقنيات الأساسية الجديدة وتحليل الهجمات الإلكترونية ومنعها. حصل على جائزة لخدماته في مجال الأمن السيبراني من قبل وزير الشؤون الداخلية والاتصالات. قدم نتائج الأبحاث في مجموعة متنوعة من مؤتمرات الأمن السيبراني في اليابان وخارجها.

    كودا ساتوروKOHDA Satoruعرض قائمة المقالات

    مراسل اقتصادي وعضو في لجنة التحرير لدى جيجي برس. من موالد طوكيو عام 1977، انضم إلى جيجي برس بعد تخرجه من جامعة واسيدا. وغطى مواضيع من بينها التمويل، وإعادة تأهيل الشركات في شركات مثل خطوط الطيران اليابانية وطوكيو للطاقة الكهربائية، ومفاوضات التجارة الدولية. كما عمل مراسلا في العاصمة واشنطن دي سي من 2013 وحتى 2018. ومنذ عام 2018 أصبح المراسل الرئيسي لجيجي برس في وزارة الاقتصاد والتجارة والصناعة.

    مقالات أخرى في هذا الموضوع