従業員は生成AIへ機密情報を頻繁に入力している

セキュリティニュース

投稿日時: 更新日時:

従業員は生成AIへ機密データを頻繁に入力している

従業員が顧客データやソースコード、従業員の福利厚生、財務データなどの多岐にわたる
機密データを、ChatGPTやCopilotなどの生成AIツールに入力することが、企業にとって大
きなリスクとなってきています。

このことが多くの企業にとって、生成AIツールを全面的に導入することを躊躇わせる原因になっているということが、海外のセキュリティ企業Harmonic調査によって明らかになりました。

ChatGPTユーザーの64%が無料版を使用、機密情報を含むプロンプトの54%が無料版で入力されている

ユーザーがChatGPTやCopilotなどの生成AIツールにデータを入力するたびに、

その情報は次世代のAIアルゴリズムの学習のためのソースとして、大規模言語モデル(LLM:Large
Language Models)のデータとして取り込まれる可能性があります。特に、無料版の生成AIツールの利用がリスクを高めています。

2024年には、ChatGPTユーザーの64%が無料版を使用しており、機密情報を含むプロンプトの54%がこれらの無料版で入力されていました。

無料版では、入力データがアルゴリズムの学習に使用されることが多く、機密情報が不適切に利用されるリスクが増大します。

懸念されるのは、これらのサービスに適切なデータセキュリティが導入されていない場合、悪意のあるプロンプトや脆弱性の悪用、ハッキングによって、後日これらの情報が外部からアクセスされる可能性があることです。

Harmonic Security社の研究者たちは、Microsoft Copilot、OpenAI ChatGPT、Google
Gemini、Anthropic Clause、Perplexityなどの複数の生成AIツールについて、ユーザーから入力された数千件のプロンプトを分析しました。

その結果、これらのツールを利用する従業員の多くは、文章の要約やブログの編集といった比較的単純なタスクを目的としている一方で、約9%のプロンプトに機密情報が含まれていたことがわかりました。

生成AIに最も多く入力されるデータは顧客情報

Harmonic Security社によると、従業員が入力している機密データは主に以下の5つのカテ
ゴリに分類されます。

  • 顧客情報
  • 従業員情報
  • 法務・財務情報
  • セキュリティ情報
  • 機密コード

その中でも、顧客情報は全体の約46%を占め、機密データの中で最大の割合を占めています。

画像:Harmonic

なぜ顧客情報が生成AIに入力されるのか?

例えば、従業員が保険請求書を効率的に処理するために、顧客情報を含むプロンプト
を生成AIツールに入力するケースがあります。

これは業務効率化に役立つかもしれませんが、顧客の請求情報や認証情報、支払い情報、クレジットカード情報などが漏洩するリスクが高まる可能性があります。

業績やボーナスに関する従業員情報が生成AIへ入力される

次に、従業員情報は機密情報の27%を占めており、生成AIが社内プロセスでますます
利用されていることを示しています。

これには、業績評価や採用決定、年間ボーナスの計算などに関連する情報が含まれ、その他にも雇用記録、個人識別用情報(PII:Personally
Identifiable Information)、給与データなどの機密性が高い情報が入力される場合がありま
す。

生成AIへ入力される法務・財務情報について

法務・財務情報が入力される割合は15%と比較的低いものの、漏洩した場合は企業にとっ
て重大なリスクとなる可能性があります。

法務・財務カテゴリにおいては、ほとんどの場合スペルチェックや翻訳、法律文書の要約といった単純な作業であるものの、一部には企業秘密であるセールスパイプラインの詳細や合併・買収に関する情報、財務データなどが
含まれます。

セキュリティ情報やソースコードについて

セキュリティ情報(7%)およびソースコード(6%)は割合としては低いものの、急速に増
加しており、特に懸念されるカテゴリとされています。

セキュリティ情報には、侵入テストの結果やネットワーク構成、バックアッププランなどが含まれ、脅威アクターがこれらを悪用することで被害が拡大する可能性があります。また、コードに関しては、技術的な脆弱性が露呈するリスクや、競合他社によりその技術がコピーされる危険性もあります。

生成AIツールの活用とリスク軽減の両立

生成AIツールの活用によるリスクが明らかになる中、企業はこの技術を引き続き利用すべ
きなのでしょうか。

専門家の見解では、競争力を維持するためには、生成AIツールの導入を避けることは難し
いとしています。

組織は、機密データを公開すれば競争力を失うリスクがある。しかし
同時に、AIツールを採用せずに遅れをとれば、損失を被るリスクもある。

SlashNext Email Security+社の最高技術責任者(CTO)であるStephen Kowski氏も同意見
です。

「生成AIツールを採用しない企業は、技術がビジネスオペレーションを再構築し続け
る中で、効率性、生産性、革新性において大きな競争優位性を失うリスクがあります。競
合他社が生成AIツールを活用してタスクを自動化し、より深い顧客インサイトを獲得し、
製品開発を加速させる一方で、生成AIツールがなければ、企業はより高い運用コストとよ
り遅い意思決定プロセスに直面する。」としています。

しかし、生成AIツール、それどころかどんなAIも全く必要ないという意見もあります。
「AIを利用するためにAIを利用することは、失敗する運命にある」

「たとえ正式に導入されたとしても、AI
が確固たるニーズに応えるものでなければ、いずれ予算が削減されたり、見直されるでし
ょう。」と、Mimoto社のCEO兼共同創業者であるKris Bondi氏は述べています。

Kowski氏は、生成AIツールを取り入れないことはリスクが大きいと考えているが、それで
も成功できると指摘しています。「特に、エンジニアリング、農業、ヘルスケア、地域サ
ービスなど、AIを使わないソリューションの方がインパクトが大きいことが多い分野では
そうです。

一方で、生成AIツールを効果的かつ安全に活用するためには、いくつかの対策が求められ
ます。

生成AIツールを効果的かつ安全に活用するための対策

Harmonic Security社は、以下のポイントを挙げています

  • ガバナンスの強化:機密データの分類、データ利用に関するガイドラインの策定と運
    用、利用可能ツールの可視化
  • データ追跡システムの導入:生成AIへの入力データのリアルタイム監視、利用プラン
    の確認(次世代アルゴリズムに利用されない有償プランが利用されているか)
  •  従業員教育:機密データ保護に対する意識を高める教育の実施、ベストプラ
    クティスとリスクの共有

これらの取り組みによって、企業はリスクを軽減しつつ、生成AIの利点を最大限に活用す
ることが可能になります。