FBIが生成AIを悪用した金融詐欺の注意喚起

FBIが生成AIを悪用した金融詐欺の注意喚起

FBIは、犯罪者が生成型人工知能(AI)を利用して大規模な詐欺を働き、計画の信憑性を高めているとして警告しています。

悪用される生成AI

サイバー攻撃者や犯罪者はソーシャルエンジニアリングや、標的型攻撃、ロマンス詐欺や投資詐欺(SNS型投資詐欺)、そのほか信用詐欺を推進するにあたり生成AIを悪用して読者を信じさせます。

生成AIで出力したテキストを悪用する流れ

  • 犯罪者は生成 AI を使用して、被害者を騙して送金させるために大量の架空のソーシャル メディア プロファイルを作成します。
  • 犯罪者は、より早く被害者に送信するメッセージを作成し、信憑性のあるコンテンツをより広い視聴者に届けることができます。
  • 犯罪者は、米国の被害者を狙う外国人犯罪者の文法やスペルの誤りを制限するために、言語翻訳を支援する生成 AI ツールを使用します。
  • 犯罪者は、暗号通貨投資詐欺やその他の投資スキームのための詐欺ウェブサイトのコンテンツを作成します。
  • 犯罪者は、AI 搭載のチャットボットを詐欺ウェブサイトに埋め込み、被害者に悪意のあるリンクをクリックするよう促します。

生成AIで出力した画像を悪用する流れ

  • 犯罪者は、ソーシャルエンジニアリング、スピアフィッシング、恋愛詐欺、信用詐欺、SNS投資詐欺などで、架空のソーシャルメディアプロフィールに本物そっくりの画像を作成します。
  • 犯罪者は、なりすましや個人情報の詐称を目的として、偽造運転免許証や資格情報(法執行機関、政府、銀行)などの偽造身分証明書を作成します。
  • 犯罪者は生成 AI を使用して写真を作成し、それを被害者とのプライベートな通信で共有して、被害者に本物の人間と話していると信じ込ませます。
  • 犯罪者は生成 AI ツールを使用して、偽造品や未配達計画を宣伝する有名人やソーシャル メディアの人物像を作成します
  • 犯罪者は生成 AI ツールを使用して自然災害や世界規模の紛争の画像を作成し、不正な慈善団体への寄付を募ります。
  • 犯罪者は生成 AI ツールを使用して、市場操作計画に使用される画像を作成します。
  • 犯罪者は生成AIツールを使用して被害者のわいせつな写真を作成し、セックス脅迫計画で支払いを要求します。

AI生成オーディオ、別名ボーカルクローニングの悪用

犯罪者は AI が生成した音声を使用して、著名人や公人、または個人的な関係者になりすまし、金銭を要求する可能性があります。

  • 犯罪者は、恋人の声を収録した短い音声クリップを作成し、危機的状況にある近親者になりすまして、即時の経済的援助を求めたり、身代金を要求したりします。
  • 犯罪者は、AI が生成した個人の音声クリップを使用して、その人になりすまし、銀行口座にアクセスします。

AI生成ビデオの悪用

犯罪者は、詐欺計画を強化するために、AI で生成されたビデオを使用して、著名人の信憑性のある描写を作成します。

  • 犯罪者は、企業の幹部、法執行機関、その他の権威者とリアルタイムでビデオチャットするためのビデオを作成します。
  • 犯罪者は、オンライン上の連絡先が「実在の人物」であることを「証明」するために、プライベートな通信用のビデオを作成します。
  • 犯罪者は生成 AI ツールを使用して、投資詐欺計画のための架空の、または誤解を招くような販促資料用のビデオを作成します。

詐欺を防ぐためのアドバイス

  1. 身元確認の工夫: 家族と秘密の合言葉やフレーズを決めておく。
  2. 不自然な特徴を見抜く: 画像や動画の歪み、不自然な動きや表情、影やアクセサリーの不一致に注意。
  3. 声の違和感に気づく: AI音声と実際の声のトーンや言葉遣いの違いを確認。
  4. 個人情報を制限:
    • ソーシャルメディアを非公開設定にし、知人のみにフォローを制限。
    • 自身の画像や音声のオンライン公開を最小限に。
  5. 送金前の確認:
    • 電話を切り、公式連絡先を調べて正確な連絡先へ折り返す。
    • 知らない人やオンラインのみの関係の相手にお金を送らない。
TOPへ