
京都府警は2月13日、電子計算機使用詐欺の容疑で神奈川県伊勢原市に住む17歳の男子高校生を追送検しました。高校生は、不正取得したクレジットカード情報を利用し、少なくとも130万円分の決済を行った疑いが持たれています。さらに、産経新聞の報道によると高校生は対話型生成AI「ChatGPT」を活用し、わずか1週間で不正なプログラムを開発していたことも明らかになりました。
なお、この高校生は秘匿性の高い通信アプリ「テレグラム(Telegram)」で、他人のカード情報を不正に取得する技術を競うチャットグループに参加していたとしています。
ChatGPTを活用したプログラム開発
今回の事件で注目されるのは、生成AI「ChatGPT」を利用して不正プログラムが開発されたことです。高校生は、必要なコードを理解していなかったため、ChatGPTを利用してプログラムの記述方法を学びながら、約1週間で開発。その結果、高度なサイバー犯罪を短期間で実現させることが可能となりました。
ChatGPTで悪意のあるプログラムは作成可能か
ChatGPTで悪意のあるプログラムは作成可能です。
一般的に生成AIはガードレールが設定されており、悪意のあるプロンプト(指示)や倫理的にNGな内容は出力を拒否するようになっています。
しかし、例えば以下のように悪意のある出力をさせる事も可能です。
- 適切なプロンプトとして依頼した内容を悪意のある用途に利用する
例:ECサイトのメルマガの文章案を依頼をし、フィッシングメールの文章に利用する
- プロンプトの脱獄をすることによって、ガードレールを回避する
例:絵文字やエンコードで依頼する事により悪意のある出力を行う
実際に悪意のある目的でプログラムを稼働させる事は可能か
出力されたコードを稼働させるには、
- 出力されたコードが何を実施しどこに設定するか
- フィッシングサイトを作成する場合、どうやって各種アンチウィルスやEDRを回避するか
- プログラムを稼働させるサーバはどこに設定しどうやって身元を隠すか
などの知識が必要になっています。
こういった知識をツギハギで学びプログラムを稼働させる事は可能ですが、
安易に稼働させると今回の通り逮捕されるリスクがあります。
参照