من سلسلة GPT التابعة لـ OpenAI إلى Gemini من Google، ونماذج مفتوحة المصدر المختلفة، تعيد الذكاء الاصطناعي المتقدم تشكيل عملنا وأنماط حياتنا بشكل عميق. ومع ذلك، جنبًا إلى جنب مع التقدم التكنولوجي السريع، يظهر جانب مظلم مقلق تدريجيًا - وهو ارتفاع نماذج اللغة الكبيرة غير المقيدة أو الخبيثة.
تشير LLM غير المقيدة إلى نماذج اللغة التي تم تصميمها أو تعديلها أو "كسرها" لتجاوز آليات الأمان المدمجة والقيود الأخلاقية للنماذج السائدة. يستثمر مطورو LLM السائدون عادةً موارد كبيرة لمنع استخدام نماذجهم في إنتاج خطاب الكراهية أو المعلومات الزائفة أو التعليمات البرمجية الضارة أو تقديم تعليمات للأنشطة غير القانونية. ومع ذلك، في السنوات الأخيرة، بدأ بعض الأفراد أو المنظمات في السعي أو تطوير نماذج غير مقيدة لأغراض مثل الجرائم الإلكترونية. في ضوء ذلك، ستستعرض هذه المقالة أدوات LLM غير المقيدة النموذجية، وتقدم إساءة استخدامها في مجال التشفير، وتناقش التحديات الأمنية ذات الصلة والاستجابات.
المهام التي كانت تتطلب مهارات احترافية، مثل كتابة الشيفرات الخبيثة، وإنشاء رسائل البريد الإلكتروني الاحتيالية، والتخطيط للمخططات، يمكن الآن إنجازها بسهولة من قبل أشخاص عاديين دون أي تجربة في البرمجة بمساعدة نماذج LLMs غير المقيدة. يحتاج المهاجمون فقط إلى الحصول على الأوزان والشيفرة المصدرية للنماذج مفتوحة المصدر، ثم ضبطها على مجموعات بيانات تحتوي على محتوى خبيث، أو بيانات متحيزة، أو تعليمات غير قانونية لإنشاء أدوات هجوم مخصصة.
لقد أدى هذا النموذج إلى ظهور مخاطر متعددة: يمكن للمهاجمين "تعديل" النماذج بشكل سحري بناءً على أهداف محددة لتوليد محتوى أكثر خداعًا، وبالتالي تجاوز مراجعة المحتوى وقيود الأمان للنماذج اللغوية الكبيرة التقليدية؛ يمكن أيضًا استخدام النموذج لتوليد متغيرات من التعليمات البرمجية بسرعة لمواقع التصيد الاحتيالي أو تخصيص نصوص الاحتيال لمختلف منصات التواصل الاجتماعي؛ وفي الوقت نفسه، تستمر إمكانية الوصول وقابلية تعديل النماذج مفتوحة المصدر في تعزيز تشكيل وانتشار نظام بيئي سري للذكاء الاصطناعي، مما يوفر أرضية خصبة للمعاملات غير القانونية والتطوير. فيما يلي مقدمة موجزة عن مثل هذه النماذج اللغوية الكبيرة غير المقيدة:
WormGPT هو نموذج لغوي ضار يُباع بشكل علني في المنتديات السرية، حيث يدعي مطوروه صراحة أنه لا يحتوي على قيود أخلاقية، مما يجعله نسخة سوداء من نموذج GPT. يعتمد على نماذج مفتوحة المصدر مثل GPT-J 6B وتم تدريبه على كمية كبيرة من البيانات المتعلقة بالبرامج الضارة. يحتاج المستخدمون لدفع حد أدنى قدره 189 دولارًا للحصول على وصول لمدة شهر. الاستخدام الأكثر شهرة لـ WormGPT هو توليد رسائل بريد إلكتروني احتيالية تجارية (BEC) ورسائل بريد إلكتروني تصيد احتيالي تبدو واقعية للغاية ومقنعة. تشمل إساءة استخدامه النموذجية في مجال التشفير ما يلي:
تم تطوير DarkBERT كنموذج لغوي بالتعاون بين باحثين من معهد كوريا المتقدم للعلوم والتكنولوجيا (KAIST) وشركة S2W Inc.، وتم تدريبه مسبقًا على بيانات الويب المظلم (مثل المنتديات والأسواق السوداء والمعلومات المسربة) بهدف مساعدة الباحثين في مجال الأمن السيبراني ووكالات إنفاذ القانون على فهم نظام الويب المظلم بشكل أفضل، وتتبع الأنشطة غير القانونية، وتحديد التهديدات المحتملة، وجمع معلومات التهديد.
على الرغم من أن DarkBERT تم تصميمه بنوايا حسنة، إلا أن المحتوى الحساس الذي يحتويه بشأن الويب المظلم، بما في ذلك البيانات، وطرق الهجوم، واستراتيجيات التجارة غير القانونية، يمكن أن يكون له عواقب وخيمة إذا حصل عليه جهات خبيثة أو استخدمت تقنيات مشابهة لتدريب نماذج كبيرة غير مقيدة. تشمل إساءة استخدامه المحتملة في سيناريوهات التشفير ما يلي:
FraudGPT: سكين الجيش السويسري للاحتيال عبر الإنترنت
يدعي FraudGPT أنه نسخة مطورة من WormGPT، حيث يقدم ميزات أكثر شمولاً، يتم بيعه بشكل أساسي على الويب المظلم ومنتديات المخترقين، مع رسوم شهرية تتراوح من 200 إلى 1,700 دولار. تشمل إساءاته النموذجية في سيناريو التشفير ما يلي:
GhostGPT هو روبوت محادثة بالذكاء الاصطناعي مُصمم بشكل صريح ليكون بلا قيود أخلاقية، مع إساءات نموذجية في سيناريو التشفير تشمل:
تقدم Venice.ai الوصول إلى مجموعة متنوعة من نماذج LLM، بما في ذلك بعض النماذج ذات التدقيق الأقل أو القيود الأكثر مرونة. إنها تضع نفسها كبوابة مفتوحة للمستخدمين لاستكشاف قدرات النماذج المختلفة، مما يوفر نماذج متطورة ودقيقة وغير معتدلة لتجربة ذكاء اصطناعي غير مقيدة حقًا، لكن قد يتم استغلالها أيضًا من قبل الجهات الخبيثة لإنشاء محتوى ضار. تشمل المخاطر المرتبطة بالمنصة ما يلي:
إن ظهور نماذج LLMs غير المقيدة يمثل نموذجًا جديدًا من الهجمات على الأمن السيبراني والذي أصبح أكثر تعقيدًا وقابلية للتوسع وأتمتة. هذه النماذج لا تقلل فقط من عتبة الهجمات ولكنها أيضًا تقدم تهديدات جديدة تكون أكثر سرية وخداعًا.
في هذه اللعبة المستمرة من الهجوم والدفاع، يجب على جميع الأطراف في نظام الأمان العمل معًا للتكيف مع المخاطر المستقبلية: من ناحية، هناك حاجة لزيادة الاستثمار في تقنيات الكشف لتطوير أنظمة قادرة على تحديد واعتراض المحتوى الاحتيالي الذي تولده النماذج اللغوية الضارة، واستغلال ثغرات العقود الذكية، والرموز الضارة؛ من ناحية أخرى، يجب أيضًا بذل جهود لتعزيز بناء قدرات مكافحة كسر الحماية واستكشاف آليات العلامات المائية والتتبع لتتبع مصادر المحتوى الضار في السيناريوهات الحرجة مثل المالية وتوليد الرموز؛ بالإضافة إلى ذلك، يجب إنشاء إطار أخلاقي سليم وآلية تنظيمية لتقييد تطور وإساءة استخدام النماذج الضارة بشكل جذري.
من سلسلة GPT التابعة لـ OpenAI إلى Gemini من Google، ونماذج مفتوحة المصدر المختلفة، تعيد الذكاء الاصطناعي المتقدم تشكيل عملنا وأنماط حياتنا بشكل عميق. ومع ذلك، جنبًا إلى جنب مع التقدم التكنولوجي السريع، يظهر جانب مظلم مقلق تدريجيًا - وهو ارتفاع نماذج اللغة الكبيرة غير المقيدة أو الخبيثة.
تشير LLM غير المقيدة إلى نماذج اللغة التي تم تصميمها أو تعديلها أو "كسرها" لتجاوز آليات الأمان المدمجة والقيود الأخلاقية للنماذج السائدة. يستثمر مطورو LLM السائدون عادةً موارد كبيرة لمنع استخدام نماذجهم في إنتاج خطاب الكراهية أو المعلومات الزائفة أو التعليمات البرمجية الضارة أو تقديم تعليمات للأنشطة غير القانونية. ومع ذلك، في السنوات الأخيرة، بدأ بعض الأفراد أو المنظمات في السعي أو تطوير نماذج غير مقيدة لأغراض مثل الجرائم الإلكترونية. في ضوء ذلك، ستستعرض هذه المقالة أدوات LLM غير المقيدة النموذجية، وتقدم إساءة استخدامها في مجال التشفير، وتناقش التحديات الأمنية ذات الصلة والاستجابات.
المهام التي كانت تتطلب مهارات احترافية، مثل كتابة الشيفرات الخبيثة، وإنشاء رسائل البريد الإلكتروني الاحتيالية، والتخطيط للمخططات، يمكن الآن إنجازها بسهولة من قبل أشخاص عاديين دون أي تجربة في البرمجة بمساعدة نماذج LLMs غير المقيدة. يحتاج المهاجمون فقط إلى الحصول على الأوزان والشيفرة المصدرية للنماذج مفتوحة المصدر، ثم ضبطها على مجموعات بيانات تحتوي على محتوى خبيث، أو بيانات متحيزة، أو تعليمات غير قانونية لإنشاء أدوات هجوم مخصصة.
لقد أدى هذا النموذج إلى ظهور مخاطر متعددة: يمكن للمهاجمين "تعديل" النماذج بشكل سحري بناءً على أهداف محددة لتوليد محتوى أكثر خداعًا، وبالتالي تجاوز مراجعة المحتوى وقيود الأمان للنماذج اللغوية الكبيرة التقليدية؛ يمكن أيضًا استخدام النموذج لتوليد متغيرات من التعليمات البرمجية بسرعة لمواقع التصيد الاحتيالي أو تخصيص نصوص الاحتيال لمختلف منصات التواصل الاجتماعي؛ وفي الوقت نفسه، تستمر إمكانية الوصول وقابلية تعديل النماذج مفتوحة المصدر في تعزيز تشكيل وانتشار نظام بيئي سري للذكاء الاصطناعي، مما يوفر أرضية خصبة للمعاملات غير القانونية والتطوير. فيما يلي مقدمة موجزة عن مثل هذه النماذج اللغوية الكبيرة غير المقيدة:
WormGPT هو نموذج لغوي ضار يُباع بشكل علني في المنتديات السرية، حيث يدعي مطوروه صراحة أنه لا يحتوي على قيود أخلاقية، مما يجعله نسخة سوداء من نموذج GPT. يعتمد على نماذج مفتوحة المصدر مثل GPT-J 6B وتم تدريبه على كمية كبيرة من البيانات المتعلقة بالبرامج الضارة. يحتاج المستخدمون لدفع حد أدنى قدره 189 دولارًا للحصول على وصول لمدة شهر. الاستخدام الأكثر شهرة لـ WormGPT هو توليد رسائل بريد إلكتروني احتيالية تجارية (BEC) ورسائل بريد إلكتروني تصيد احتيالي تبدو واقعية للغاية ومقنعة. تشمل إساءة استخدامه النموذجية في مجال التشفير ما يلي:
تم تطوير DarkBERT كنموذج لغوي بالتعاون بين باحثين من معهد كوريا المتقدم للعلوم والتكنولوجيا (KAIST) وشركة S2W Inc.، وتم تدريبه مسبقًا على بيانات الويب المظلم (مثل المنتديات والأسواق السوداء والمعلومات المسربة) بهدف مساعدة الباحثين في مجال الأمن السيبراني ووكالات إنفاذ القانون على فهم نظام الويب المظلم بشكل أفضل، وتتبع الأنشطة غير القانونية، وتحديد التهديدات المحتملة، وجمع معلومات التهديد.
على الرغم من أن DarkBERT تم تصميمه بنوايا حسنة، إلا أن المحتوى الحساس الذي يحتويه بشأن الويب المظلم، بما في ذلك البيانات، وطرق الهجوم، واستراتيجيات التجارة غير القانونية، يمكن أن يكون له عواقب وخيمة إذا حصل عليه جهات خبيثة أو استخدمت تقنيات مشابهة لتدريب نماذج كبيرة غير مقيدة. تشمل إساءة استخدامه المحتملة في سيناريوهات التشفير ما يلي:
FraudGPT: سكين الجيش السويسري للاحتيال عبر الإنترنت
يدعي FraudGPT أنه نسخة مطورة من WormGPT، حيث يقدم ميزات أكثر شمولاً، يتم بيعه بشكل أساسي على الويب المظلم ومنتديات المخترقين، مع رسوم شهرية تتراوح من 200 إلى 1,700 دولار. تشمل إساءاته النموذجية في سيناريو التشفير ما يلي:
GhostGPT هو روبوت محادثة بالذكاء الاصطناعي مُصمم بشكل صريح ليكون بلا قيود أخلاقية، مع إساءات نموذجية في سيناريو التشفير تشمل:
تقدم Venice.ai الوصول إلى مجموعة متنوعة من نماذج LLM، بما في ذلك بعض النماذج ذات التدقيق الأقل أو القيود الأكثر مرونة. إنها تضع نفسها كبوابة مفتوحة للمستخدمين لاستكشاف قدرات النماذج المختلفة، مما يوفر نماذج متطورة ودقيقة وغير معتدلة لتجربة ذكاء اصطناعي غير مقيدة حقًا، لكن قد يتم استغلالها أيضًا من قبل الجهات الخبيثة لإنشاء محتوى ضار. تشمل المخاطر المرتبطة بالمنصة ما يلي:
إن ظهور نماذج LLMs غير المقيدة يمثل نموذجًا جديدًا من الهجمات على الأمن السيبراني والذي أصبح أكثر تعقيدًا وقابلية للتوسع وأتمتة. هذه النماذج لا تقلل فقط من عتبة الهجمات ولكنها أيضًا تقدم تهديدات جديدة تكون أكثر سرية وخداعًا.
في هذه اللعبة المستمرة من الهجوم والدفاع، يجب على جميع الأطراف في نظام الأمان العمل معًا للتكيف مع المخاطر المستقبلية: من ناحية، هناك حاجة لزيادة الاستثمار في تقنيات الكشف لتطوير أنظمة قادرة على تحديد واعتراض المحتوى الاحتيالي الذي تولده النماذج اللغوية الضارة، واستغلال ثغرات العقود الذكية، والرموز الضارة؛ من ناحية أخرى، يجب أيضًا بذل جهود لتعزيز بناء قدرات مكافحة كسر الحماية واستكشاف آليات العلامات المائية والتتبع لتتبع مصادر المحتوى الضار في السيناريوهات الحرجة مثل المالية وتوليد الرموز؛ بالإضافة إلى ذلك، يجب إنشاء إطار أخلاقي سليم وآلية تنظيمية لتقييد تطور وإساءة استخدام النماذج الضارة بشكل جذري.