OpenAIのGPTシリーズからGoogleのGemini、さまざまなオープンソースモデルに至るまで、高度な人工知能は私たちの仕事やライフスタイルを大きく変えています。しかし、急速な技術の進歩とともに、制限のないまたは悪意のある大規模言語モデルの増加という懸念すべき暗い側面が徐々に浮上しています。
いわゆる無制限LLMとは、主流モデルの内蔵安全機構や倫理的制約を回避するために特別に設計、修正、または「脱獄」された言語モデルを指します。主流のLLM開発者は、モデルがヘイトスピーチ、虚偽情報、悪意のあるコードを生成したり、違法活動のための指示を提供したりするのを防ぐために、通常は多大なリソースを投資します。しかし、近年、一部の個人や組織はサイバー犯罪などの動機から無制限モデルを求めたり開発したりし始めています。これを踏まえ、本記事では典型的な無制限LLMツールをレビューし、暗号資産業界におけるその悪用を紹介し、関連するセキュリティ課題と対応について議論します。
以前は専門的なスキルを必要としたタスク、例えば悪意のあるコードの作成、フィッシングメールの作成、詐欺の計画などが、今では制限のないLLMの助けを借りて、プログラミング経験のない一般の人々によって簡単に実行できるようになりました。攻撃者はオープンソースモデルの重みとソースコードを入手し、悪意のあるコンテンツ、偏った表現、または違法な指示を含むデータセットで微調整することで、カスタマイズされた攻撃ツールを作成するだけで済みます。
このモデルは複数のリスクハザードを引き起こしています:攻撃者は特定のターゲットに基づいてモデルを「魔法のように改変」し、より欺瞞的なコンテンツを生成することで、従来のLLMのコンテンツレビューやセキュリティ制限を回避することができます。また、このモデルはフィッシングウェブサイトのコードバリアントを迅速に生成したり、異なるソーシャルメディアプラットフォーム向けに詐欺のコピーをカスタマイズしたりするためにも使用されます。一方で、オープンソースモデルのアクセス可能性と改変可能性は、地下AIエコシステムの形成と拡散を助長し、違法取引や開発の温床を提供し続けています。以下は、そのような制限のないLLMの簡単な紹介です:
WormGPTは地下フォーラムで公然と販売されている悪意のあるLLMで、その開発者は明示的に倫理的制約がないと主張しており、GPTモデルのブラックバージョンです。これは、GPT-J 6Bのようなオープンソースモデルに基づいており、マルウェアに関連する大量のデータで訓練されています。ユーザーは1ヶ月のアクセスを得るために最低189ドルを支払う必要があります。WormGPTの最も悪名高い使用例は、非常にリアルで説得力のあるビジネスメール詐欺(BEC)攻撃メールやフィッシングメールを生成することです。暗号資産分野での典型的な悪用には次のようなものが含まれます:
DarkBERTは、韓国科学技術院(KAIST)とS2W Inc.の研究者たちの協力によって開発された言語モデルで、サイバーセキュリティ研究者や法執行機関がダークウェブエコシステムをよりよく理解し、違法活動を追跡し、潜在的な脅威を特定し、脅威インテリジェンスを収集するのを助けることを目的として、ダークウェブデータ(フォーラム、ブラックマーケット、リークされた情報など)で事前に訓練されています。
DarkBERTは良い意図で設計されましたが、ダークウェブに関するセンシティブなコンテンツ(データ、攻撃手法、違法な取引戦略など)を保持しているため、悪意のある行為者がそれを入手したり、無制限の大規模モデルを訓練するために類似の技術を利用した場合、深刻な結果をもたらす可能性があります。暗号化シナリオにおけるその潜在的な悪用には以下が含まれます:
FraudGPT: オンライン詐欺のスイスアーミーナイフ
FraudGPTは、WormGPTのアップグレード版を自称しており、より包括的な機能を提供しています。主にダークウェブやハッカー掲示板で販売されており、月額料金は200ドルから1,700ドルまでさまざまです。暗号化シナリオでの典型的な悪用には次のようなものがあります:
GhostGPTは、倫理的制約がないと明言されているAIチャットボットであり、暗号資産のシナリオにおける典型的な悪用には次のようなものが含まれます:
Venice.aiは、より少ない監視や緩い制限のあるいくつかのモデルを含む、さまざまなLLMへのアクセスを提供します。異なるLLMの能力を探索するためのオープンなゲートウェイとして位置付けられ、最先端で正確かつ未修正のモデルを提供し、真に制約のないAI体験を実現しますが、悪意のある行為者によって有害なコンテンツを生成するために悪用される可能性もあります。このプラットフォームに関連するリスクには次のものが含まれます:
制限のないLLMの出現は、サイバーセキュリティに対する攻撃の新しいパラダイムを示しており、より複雑でスケーラブルかつ自動化されています。これらのモデルは攻撃の閾値を下げるだけでなく、より秘密裏で欺瞞的な新しい脅威ももたらします。
この進行中の攻防戦において、セキュリティエコシステムのすべての関係者が将来のリスクに対処するために協力しなければなりません。一方では、悪意のあるLLMによって生成されたフィッシングコンテンツを特定し、遮断することができるシステムを開発するために、検出技術への投資を増やす必要があります。スマートコントラクトの脆弱性や悪意のあるコードを利用する攻撃に対処する必要があります。もう一方では、モデルのアンチジェイルブレイキング機能の構築を促進し、金融やコード生成などの重要なシナリオにおいて悪意のあるコンテンツの出所を追跡するための透かしやトレーシングメカニズムを探求する取り組みも行うべきです。さらに、悪意のあるモデルの開発と悪用を根本的に制限するための健全な倫理的枠組みと規制メカニズムを確立する必要があります。
OpenAIのGPTシリーズからGoogleのGemini、さまざまなオープンソースモデルに至るまで、高度な人工知能は私たちの仕事やライフスタイルを大きく変えています。しかし、急速な技術の進歩とともに、制限のないまたは悪意のある大規模言語モデルの増加という懸念すべき暗い側面が徐々に浮上しています。
いわゆる無制限LLMとは、主流モデルの内蔵安全機構や倫理的制約を回避するために特別に設計、修正、または「脱獄」された言語モデルを指します。主流のLLM開発者は、モデルがヘイトスピーチ、虚偽情報、悪意のあるコードを生成したり、違法活動のための指示を提供したりするのを防ぐために、通常は多大なリソースを投資します。しかし、近年、一部の個人や組織はサイバー犯罪などの動機から無制限モデルを求めたり開発したりし始めています。これを踏まえ、本記事では典型的な無制限LLMツールをレビューし、暗号資産業界におけるその悪用を紹介し、関連するセキュリティ課題と対応について議論します。
以前は専門的なスキルを必要としたタスク、例えば悪意のあるコードの作成、フィッシングメールの作成、詐欺の計画などが、今では制限のないLLMの助けを借りて、プログラミング経験のない一般の人々によって簡単に実行できるようになりました。攻撃者はオープンソースモデルの重みとソースコードを入手し、悪意のあるコンテンツ、偏った表現、または違法な指示を含むデータセットで微調整することで、カスタマイズされた攻撃ツールを作成するだけで済みます。
このモデルは複数のリスクハザードを引き起こしています:攻撃者は特定のターゲットに基づいてモデルを「魔法のように改変」し、より欺瞞的なコンテンツを生成することで、従来のLLMのコンテンツレビューやセキュリティ制限を回避することができます。また、このモデルはフィッシングウェブサイトのコードバリアントを迅速に生成したり、異なるソーシャルメディアプラットフォーム向けに詐欺のコピーをカスタマイズしたりするためにも使用されます。一方で、オープンソースモデルのアクセス可能性と改変可能性は、地下AIエコシステムの形成と拡散を助長し、違法取引や開発の温床を提供し続けています。以下は、そのような制限のないLLMの簡単な紹介です:
WormGPTは地下フォーラムで公然と販売されている悪意のあるLLMで、その開発者は明示的に倫理的制約がないと主張しており、GPTモデルのブラックバージョンです。これは、GPT-J 6Bのようなオープンソースモデルに基づいており、マルウェアに関連する大量のデータで訓練されています。ユーザーは1ヶ月のアクセスを得るために最低189ドルを支払う必要があります。WormGPTの最も悪名高い使用例は、非常にリアルで説得力のあるビジネスメール詐欺(BEC)攻撃メールやフィッシングメールを生成することです。暗号資産分野での典型的な悪用には次のようなものが含まれます:
DarkBERTは、韓国科学技術院(KAIST)とS2W Inc.の研究者たちの協力によって開発された言語モデルで、サイバーセキュリティ研究者や法執行機関がダークウェブエコシステムをよりよく理解し、違法活動を追跡し、潜在的な脅威を特定し、脅威インテリジェンスを収集するのを助けることを目的として、ダークウェブデータ(フォーラム、ブラックマーケット、リークされた情報など)で事前に訓練されています。
DarkBERTは良い意図で設計されましたが、ダークウェブに関するセンシティブなコンテンツ(データ、攻撃手法、違法な取引戦略など)を保持しているため、悪意のある行為者がそれを入手したり、無制限の大規模モデルを訓練するために類似の技術を利用した場合、深刻な結果をもたらす可能性があります。暗号化シナリオにおけるその潜在的な悪用には以下が含まれます:
FraudGPT: オンライン詐欺のスイスアーミーナイフ
FraudGPTは、WormGPTのアップグレード版を自称しており、より包括的な機能を提供しています。主にダークウェブやハッカー掲示板で販売されており、月額料金は200ドルから1,700ドルまでさまざまです。暗号化シナリオでの典型的な悪用には次のようなものがあります:
GhostGPTは、倫理的制約がないと明言されているAIチャットボットであり、暗号資産のシナリオにおける典型的な悪用には次のようなものが含まれます:
Venice.aiは、より少ない監視や緩い制限のあるいくつかのモデルを含む、さまざまなLLMへのアクセスを提供します。異なるLLMの能力を探索するためのオープンなゲートウェイとして位置付けられ、最先端で正確かつ未修正のモデルを提供し、真に制約のないAI体験を実現しますが、悪意のある行為者によって有害なコンテンツを生成するために悪用される可能性もあります。このプラットフォームに関連するリスクには次のものが含まれます:
制限のないLLMの出現は、サイバーセキュリティに対する攻撃の新しいパラダイムを示しており、より複雑でスケーラブルかつ自動化されています。これらのモデルは攻撃の閾値を下げるだけでなく、より秘密裏で欺瞞的な新しい脅威ももたらします。
この進行中の攻防戦において、セキュリティエコシステムのすべての関係者が将来のリスクに対処するために協力しなければなりません。一方では、悪意のあるLLMによって生成されたフィッシングコンテンツを特定し、遮断することができるシステムを開発するために、検出技術への投資を増やす必要があります。スマートコントラクトの脆弱性や悪意のあるコードを利用する攻撃に対処する必要があります。もう一方では、モデルのアンチジェイルブレイキング機能の構築を促進し、金融やコード生成などの重要なシナリオにおいて悪意のあるコンテンツの出所を追跡するための透かしやトレーシングメカニズムを探求する取り組みも行うべきです。さらに、悪意のあるモデルの開発と悪用を根本的に制限するための健全な倫理的枠組みと規制メカニズムを確立する必要があります。