パンドラの箱:制限のない大規模モデルが暗号資産のセキュリティを脅かす方法

中級6/10/2025, 1:50:06 AM
オープンソースの大規模モデルの普及に伴い、WormGPTやFraudGPTのような「制限のないAIツール」がフィッシングメールを生成したり、悪意のある契約を作成したり、ユーザーコミュニティを操作したりするために悪用されており、暗号資産業界のセキュリティに深刻な脅威をもたらしています。本記事では、これらのモデルの原則、用途、および対策について詳しく説明し、Web3の実務者に警鐘を鳴らしています。

OpenAIのGPTシリーズからGoogleのGemini、さまざまなオープンソースモデルに至るまで、高度な人工知能は私たちの仕事やライフスタイルを大きく変えています。しかし、急速な技術の進歩とともに、制限のないまたは悪意のある大規模言語モデルの増加という懸念すべき暗い側面が徐々に浮上しています。

いわゆる無制限LLMとは、主流モデルの内蔵安全機構や倫理的制約を回避するために特別に設計、修正、または「脱獄」された言語モデルを指します。主流のLLM開発者は、モデルがヘイトスピーチ、虚偽情報、悪意のあるコードを生成したり、違法活動のための指示を提供したりするのを防ぐために、通常は多大なリソースを投資します。しかし、近年、一部の個人や組織はサイバー犯罪などの動機から無制限モデルを求めたり開発したりし始めています。これを踏まえ、本記事では典型的な無制限LLMツールをレビューし、暗号資産業界におけるその悪用を紹介し、関連するセキュリティ課題と対応について議論します。

制限のないLLMはどのように悪用される可能性がありますか?

以前は専門的なスキルを必要としたタスク、例えば悪意のあるコードの作成、フィッシングメールの作成、詐欺の計画などが、今では制限のないLLMの助けを借りて、プログラミング経験のない一般の人々によって簡単に実行できるようになりました。攻撃者はオープンソースモデルの重みとソースコードを入手し、悪意のあるコンテンツ、偏った表現、または違法な指示を含むデータセットで微調整することで、カスタマイズされた攻撃ツールを作成するだけで済みます。

このモデルは複数のリスクハザードを引き起こしています:攻撃者は特定のターゲットに基づいてモデルを「魔法のように改変」し、より欺瞞的なコンテンツを生成することで、従来のLLMのコンテンツレビューやセキュリティ制限を回避することができます。また、このモデルはフィッシングウェブサイトのコードバリアントを迅速に生成したり、異なるソーシャルメディアプラットフォーム向けに詐欺のコピーをカスタマイズしたりするためにも使用されます。一方で、オープンソースモデルのアクセス可能性と改変可能性は、地下AIエコシステムの形成と拡散を助長し、違法取引や開発の温床を提供し続けています。以下は、そのような制限のないLLMの簡単な紹介です:

WormGPT: ブラックバージョンGPT

WormGPTは地下フォーラムで公然と販売されている悪意のあるLLMで、その開発者は明示的に倫理的制約がないと主張しており、GPTモデルのブラックバージョンです。これは、GPT-J 6Bのようなオープンソースモデルに基づいており、マルウェアに関連する大量のデータで訓練されています。ユーザーは1ヶ月のアクセスを得るために最低189ドルを支払う必要があります。WormGPTの最も悪名高い使用例は、非常にリアルで説得力のあるビジネスメール詐欺(BEC)攻撃メールやフィッシングメールを生成することです。暗号資産分野での典型的な悪用には次のようなものが含まれます:

  • フィッシングメール/メッセージを生成する: 暗号資産取引所、ウォレット、または著名なプロジェクトを模倣して、ユーザーに「アカウント確認」リクエストを送信し、悪意のあるリンクをクリックさせたり、プライベートキー/シードフレーズを漏洩させたりする。
  • 悪意のあるコードの作成:技術的スキルが低い攻撃者が、ウォレットファイルを盗む、クリップボードを監視する、キーストロークを記録するなどの悪意のあるコードを書くのを支援する。
  • 自動詐欺を駆動する:潜在的な被害者に自動的に返信し、偽のエアドロップや投資プロジェクトに参加するように誘導します。


DarkBERT: ダークウェブコンテンツの二重の刃

DarkBERTは、韓国科学技術院(KAIST)とS2W Inc.の研究者たちの協力によって開発された言語モデルで、サイバーセキュリティ研究者や法執行機関がダークウェブエコシステムをよりよく理解し、違法活動を追跡し、潜在的な脅威を特定し、脅威インテリジェンスを収集するのを助けることを目的として、ダークウェブデータ(フォーラム、ブラックマーケット、リークされた情報など)で事前に訓練されています。

DarkBERTは良い意図で設計されましたが、ダークウェブに関するセンシティブなコンテンツ(データ、攻撃手法、違法な取引戦略など)を保持しているため、悪意のある行為者がそれを入手したり、無制限の大規模モデルを訓練するために類似の技術を利用した場合、深刻な結果をもたらす可能性があります。暗号化シナリオにおけるその潜在的な悪用には以下が含まれます:

  • 正確な詐欺の実施:暗号資産ユーザーおよびプロジェクトチームに関する情報を収集して社会工学的詐欺を行う。
  • 犯罪の手口の模倣:ダークウェブ上で実証済みのコイン窃盗とマネーロンダリングの戦術を再現する。

FraudGPT: オンライン詐欺のスイスアーミーナイフ

FraudGPTは、WormGPTのアップグレード版を自称しており、より包括的な機能を提供しています。主にダークウェブやハッカー掲示板で販売されており、月額料金は200ドルから1,700ドルまでさまざまです。暗号化シナリオでの典型的な悪用には次のようなものがあります:

  • 偽の暗号資産プロジェクト: 偽のホワイトペーパー、公式ウェブサイト、ロードマップ、マーケティングコピーを生成して、詐欺的なICO/IDOを実施する。
  • フィッシングページをバッチ生成: よく知られた暗号資産取引所やウォレット接続インターフェースの模倣ログインページを迅速に作成します。
  • ソーシャルメディアボットの活動:偽のコメントやプロパガンダの大量生産、詐欺トークンのブーストや競合プロジェクトの信用失墜。
  • ソーシャルエンジニアリング攻撃:このチャットボットは人間の会話を模倣し、無防備なユーザーとの信頼関係を築き、彼らに無意識のうちに機密情報を開示させたり、有害な行動を取らせたりすることができます。

GhostGPT: 道徳的制約に縛られないAIアシスタント

GhostGPTは、倫理的制約がないと明言されているAIチャットボットであり、暗号資産のシナリオにおける典型的な悪用には次のようなものが含まれます:

  • 高度なフィッシング攻撃:メインストリームの取引所を装った非常にリアルなフィッシングメールを生成し、虚偽のKYC確認要求、セキュリティ警告、またはアカウント凍結通知を発行します。
  • スマートコントラクトの悪意のあるコード生成:プログラミングのバックグラウンドがなくても、攻撃者はGhostGPTを使用して、Rug Pull詐欺やDeFiプロトコルへの攻撃のために、隠れたバックドアや詐欺的なロジックを含むスマートコントラクトを迅速に生成できます。
  • ポリモーフィック暗号資産スティーラー:ウォレットファイル、プライベートキー、ニーモニックフレーズを盗むために連続的に変形する能力を持つマルウェアを生成します。そのポリモーフィック特性により、従来の署名ベースのセキュリティソフトウェアでは検出が困難です。
  • ソーシャルエンジニアリング攻撃:AI生成のスクリプトを組み合わせることで、攻撃者はDiscordやTelegramなどのプラットフォームにボットを展開し、ユーザーを偽のNFTミント、エアドロップ、または投資プロジェクトに参加させることができます。
  • ディープフェイク詐欺:他のAIツールと組み合わせて、GhostGPTは偽の暗号資産プロジェクトの創設者、投資家、または取引所の幹部の声を生成するために使用でき、電話詐欺やビジネスメール詐欺(BEC)攻撃を実施します。

Venice.ai: 検閲されていないアクセスの潜在的リスク

Venice.aiは、より少ない監視や緩い制限のあるいくつかのモデルを含む、さまざまなLLMへのアクセスを提供します。異なるLLMの能力を探索するためのオープンなゲートウェイとして位置付けられ、最先端で正確かつ未修正のモデルを提供し、真に制約のないAI体験を実現しますが、悪意のある行為者によって有害なコンテンツを生成するために悪用される可能性もあります。このプラットフォームに関連するリスクには次のものが含まれます:

  • 検閲を回避して悪意あるコンテンツを生成する: 攻撃者は、プラットフォーム上で制限の少ないモデルを使用して、フィッシングテンプレート、虚偽のプロパガンダ、または攻撃のアイデアを作成することができます。
  • プロンプトエンジニアリングのハードルを下げる:攻撃者が高度な「脱獄」プロンプトスキルを持っていなくても、元々制限されていた出力を簡単に取得できる。
  • 加速された攻撃スクリプトの反復: 攻撃者はこのプラットフォームを使用して、悪意のあるコマンドに対する異なるモデルの応答を迅速にテストし、詐欺スクリプトと攻撃方法を最適化できます。

書かれた最後に

制限のないLLMの出現は、サイバーセキュリティに対する攻撃の新しいパラダイムを示しており、より複雑でスケーラブルかつ自動化されています。これらのモデルは攻撃の閾値を下げるだけでなく、より秘密裏で欺瞞的な新しい脅威ももたらします。

この進行中の攻防戦において、セキュリティエコシステムのすべての関係者が将来のリスクに対処するために協力しなければなりません。一方では、悪意のあるLLMによって生成されたフィッシングコンテンツを特定し、遮断することができるシステムを開発するために、検出技術への投資を増やす必要があります。スマートコントラクトの脆弱性や悪意のあるコードを利用する攻撃に対処する必要があります。もう一方では、モデルのアンチジェイルブレイキング機能の構築を促進し、金融やコード生成などの重要なシナリオにおいて悪意のあるコンテンツの出所を追跡するための透かしやトレーシングメカニズムを探求する取り組みも行うべきです。さらに、悪意のあるモデルの開発と悪用を根本的に制限するための健全な倫理的枠組みと規制メカニズムを確立する必要があります。

声明:

  1. この記事は[から転載されています。TechFlow] 著作権は原作者に帰属します [TechFlow] 再印刷に異議がある場合は、連絡してください ゲートラーニングチームチームは関連手続きに従ってできるだけ早く処理します。
  2. 免責事項:この記事に表明された見解および意見は著者自身のものであり、いかなる投資アドバイスを構成するものではありません。
  3. 記事の他の言語版は、特に言及がない限り、Gate Learnチームによって翻訳されています。ゲートそのような状況下では、翻訳された記事をコピー、配布、または盗作することは禁止されています。

パンドラの箱:制限のない大規模モデルが暗号資産のセキュリティを脅かす方法

中級6/10/2025, 1:50:06 AM
オープンソースの大規模モデルの普及に伴い、WormGPTやFraudGPTのような「制限のないAIツール」がフィッシングメールを生成したり、悪意のある契約を作成したり、ユーザーコミュニティを操作したりするために悪用されており、暗号資産業界のセキュリティに深刻な脅威をもたらしています。本記事では、これらのモデルの原則、用途、および対策について詳しく説明し、Web3の実務者に警鐘を鳴らしています。

OpenAIのGPTシリーズからGoogleのGemini、さまざまなオープンソースモデルに至るまで、高度な人工知能は私たちの仕事やライフスタイルを大きく変えています。しかし、急速な技術の進歩とともに、制限のないまたは悪意のある大規模言語モデルの増加という懸念すべき暗い側面が徐々に浮上しています。

いわゆる無制限LLMとは、主流モデルの内蔵安全機構や倫理的制約を回避するために特別に設計、修正、または「脱獄」された言語モデルを指します。主流のLLM開発者は、モデルがヘイトスピーチ、虚偽情報、悪意のあるコードを生成したり、違法活動のための指示を提供したりするのを防ぐために、通常は多大なリソースを投資します。しかし、近年、一部の個人や組織はサイバー犯罪などの動機から無制限モデルを求めたり開発したりし始めています。これを踏まえ、本記事では典型的な無制限LLMツールをレビューし、暗号資産業界におけるその悪用を紹介し、関連するセキュリティ課題と対応について議論します。

制限のないLLMはどのように悪用される可能性がありますか?

以前は専門的なスキルを必要としたタスク、例えば悪意のあるコードの作成、フィッシングメールの作成、詐欺の計画などが、今では制限のないLLMの助けを借りて、プログラミング経験のない一般の人々によって簡単に実行できるようになりました。攻撃者はオープンソースモデルの重みとソースコードを入手し、悪意のあるコンテンツ、偏った表現、または違法な指示を含むデータセットで微調整することで、カスタマイズされた攻撃ツールを作成するだけで済みます。

このモデルは複数のリスクハザードを引き起こしています:攻撃者は特定のターゲットに基づいてモデルを「魔法のように改変」し、より欺瞞的なコンテンツを生成することで、従来のLLMのコンテンツレビューやセキュリティ制限を回避することができます。また、このモデルはフィッシングウェブサイトのコードバリアントを迅速に生成したり、異なるソーシャルメディアプラットフォーム向けに詐欺のコピーをカスタマイズしたりするためにも使用されます。一方で、オープンソースモデルのアクセス可能性と改変可能性は、地下AIエコシステムの形成と拡散を助長し、違法取引や開発の温床を提供し続けています。以下は、そのような制限のないLLMの簡単な紹介です:

WormGPT: ブラックバージョンGPT

WormGPTは地下フォーラムで公然と販売されている悪意のあるLLMで、その開発者は明示的に倫理的制約がないと主張しており、GPTモデルのブラックバージョンです。これは、GPT-J 6Bのようなオープンソースモデルに基づいており、マルウェアに関連する大量のデータで訓練されています。ユーザーは1ヶ月のアクセスを得るために最低189ドルを支払う必要があります。WormGPTの最も悪名高い使用例は、非常にリアルで説得力のあるビジネスメール詐欺(BEC)攻撃メールやフィッシングメールを生成することです。暗号資産分野での典型的な悪用には次のようなものが含まれます:

  • フィッシングメール/メッセージを生成する: 暗号資産取引所、ウォレット、または著名なプロジェクトを模倣して、ユーザーに「アカウント確認」リクエストを送信し、悪意のあるリンクをクリックさせたり、プライベートキー/シードフレーズを漏洩させたりする。
  • 悪意のあるコードの作成:技術的スキルが低い攻撃者が、ウォレットファイルを盗む、クリップボードを監視する、キーストロークを記録するなどの悪意のあるコードを書くのを支援する。
  • 自動詐欺を駆動する:潜在的な被害者に自動的に返信し、偽のエアドロップや投資プロジェクトに参加するように誘導します。


DarkBERT: ダークウェブコンテンツの二重の刃

DarkBERTは、韓国科学技術院(KAIST)とS2W Inc.の研究者たちの協力によって開発された言語モデルで、サイバーセキュリティ研究者や法執行機関がダークウェブエコシステムをよりよく理解し、違法活動を追跡し、潜在的な脅威を特定し、脅威インテリジェンスを収集するのを助けることを目的として、ダークウェブデータ(フォーラム、ブラックマーケット、リークされた情報など)で事前に訓練されています。

DarkBERTは良い意図で設計されましたが、ダークウェブに関するセンシティブなコンテンツ(データ、攻撃手法、違法な取引戦略など)を保持しているため、悪意のある行為者がそれを入手したり、無制限の大規模モデルを訓練するために類似の技術を利用した場合、深刻な結果をもたらす可能性があります。暗号化シナリオにおけるその潜在的な悪用には以下が含まれます:

  • 正確な詐欺の実施:暗号資産ユーザーおよびプロジェクトチームに関する情報を収集して社会工学的詐欺を行う。
  • 犯罪の手口の模倣:ダークウェブ上で実証済みのコイン窃盗とマネーロンダリングの戦術を再現する。

FraudGPT: オンライン詐欺のスイスアーミーナイフ

FraudGPTは、WormGPTのアップグレード版を自称しており、より包括的な機能を提供しています。主にダークウェブやハッカー掲示板で販売されており、月額料金は200ドルから1,700ドルまでさまざまです。暗号化シナリオでの典型的な悪用には次のようなものがあります:

  • 偽の暗号資産プロジェクト: 偽のホワイトペーパー、公式ウェブサイト、ロードマップ、マーケティングコピーを生成して、詐欺的なICO/IDOを実施する。
  • フィッシングページをバッチ生成: よく知られた暗号資産取引所やウォレット接続インターフェースの模倣ログインページを迅速に作成します。
  • ソーシャルメディアボットの活動:偽のコメントやプロパガンダの大量生産、詐欺トークンのブーストや競合プロジェクトの信用失墜。
  • ソーシャルエンジニアリング攻撃:このチャットボットは人間の会話を模倣し、無防備なユーザーとの信頼関係を築き、彼らに無意識のうちに機密情報を開示させたり、有害な行動を取らせたりすることができます。

GhostGPT: 道徳的制約に縛られないAIアシスタント

GhostGPTは、倫理的制約がないと明言されているAIチャットボットであり、暗号資産のシナリオにおける典型的な悪用には次のようなものが含まれます:

  • 高度なフィッシング攻撃:メインストリームの取引所を装った非常にリアルなフィッシングメールを生成し、虚偽のKYC確認要求、セキュリティ警告、またはアカウント凍結通知を発行します。
  • スマートコントラクトの悪意のあるコード生成:プログラミングのバックグラウンドがなくても、攻撃者はGhostGPTを使用して、Rug Pull詐欺やDeFiプロトコルへの攻撃のために、隠れたバックドアや詐欺的なロジックを含むスマートコントラクトを迅速に生成できます。
  • ポリモーフィック暗号資産スティーラー:ウォレットファイル、プライベートキー、ニーモニックフレーズを盗むために連続的に変形する能力を持つマルウェアを生成します。そのポリモーフィック特性により、従来の署名ベースのセキュリティソフトウェアでは検出が困難です。
  • ソーシャルエンジニアリング攻撃:AI生成のスクリプトを組み合わせることで、攻撃者はDiscordやTelegramなどのプラットフォームにボットを展開し、ユーザーを偽のNFTミント、エアドロップ、または投資プロジェクトに参加させることができます。
  • ディープフェイク詐欺:他のAIツールと組み合わせて、GhostGPTは偽の暗号資産プロジェクトの創設者、投資家、または取引所の幹部の声を生成するために使用でき、電話詐欺やビジネスメール詐欺(BEC)攻撃を実施します。

Venice.ai: 検閲されていないアクセスの潜在的リスク

Venice.aiは、より少ない監視や緩い制限のあるいくつかのモデルを含む、さまざまなLLMへのアクセスを提供します。異なるLLMの能力を探索するためのオープンなゲートウェイとして位置付けられ、最先端で正確かつ未修正のモデルを提供し、真に制約のないAI体験を実現しますが、悪意のある行為者によって有害なコンテンツを生成するために悪用される可能性もあります。このプラットフォームに関連するリスクには次のものが含まれます:

  • 検閲を回避して悪意あるコンテンツを生成する: 攻撃者は、プラットフォーム上で制限の少ないモデルを使用して、フィッシングテンプレート、虚偽のプロパガンダ、または攻撃のアイデアを作成することができます。
  • プロンプトエンジニアリングのハードルを下げる:攻撃者が高度な「脱獄」プロンプトスキルを持っていなくても、元々制限されていた出力を簡単に取得できる。
  • 加速された攻撃スクリプトの反復: 攻撃者はこのプラットフォームを使用して、悪意のあるコマンドに対する異なるモデルの応答を迅速にテストし、詐欺スクリプトと攻撃方法を最適化できます。

書かれた最後に

制限のないLLMの出現は、サイバーセキュリティに対する攻撃の新しいパラダイムを示しており、より複雑でスケーラブルかつ自動化されています。これらのモデルは攻撃の閾値を下げるだけでなく、より秘密裏で欺瞞的な新しい脅威ももたらします。

この進行中の攻防戦において、セキュリティエコシステムのすべての関係者が将来のリスクに対処するために協力しなければなりません。一方では、悪意のあるLLMによって生成されたフィッシングコンテンツを特定し、遮断することができるシステムを開発するために、検出技術への投資を増やす必要があります。スマートコントラクトの脆弱性や悪意のあるコードを利用する攻撃に対処する必要があります。もう一方では、モデルのアンチジェイルブレイキング機能の構築を促進し、金融やコード生成などの重要なシナリオにおいて悪意のあるコンテンツの出所を追跡するための透かしやトレーシングメカニズムを探求する取り組みも行うべきです。さらに、悪意のあるモデルの開発と悪用を根本的に制限するための健全な倫理的枠組みと規制メカニズムを確立する必要があります。

声明:

  1. この記事は[から転載されています。TechFlow] 著作権は原作者に帰属します [TechFlow] 再印刷に異議がある場合は、連絡してください ゲートラーニングチームチームは関連手続きに従ってできるだけ早く処理します。
  2. 免責事項:この記事に表明された見解および意見は著者自身のものであり、いかなる投資アドバイスを構成するものではありません。
  3. 記事の他の言語版は、特に言及がない限り、Gate Learnチームによって翻訳されています。ゲートそのような状況下では、翻訳された記事をコピー、配布、または盗作することは禁止されています。
今すぐ始める
登録して、
$100
のボーナスを獲得しよう!