Logo - Full (Color)

生成AIで情報漏洩は起こる?事例を交えて要因と対策方法を解説

生成ai 情報漏洩_アイキャッチ

生成AIとは、オリジナルのテキストや画像、動画などをAIが出力する技術のことです。文章の要約やプレゼン資料に使用する画像の作成など、ビジネスにおけるさまざまな場面で活用できますが、情報漏洩のリスクがあるため注意が必要です。生成AIのリスクを理解したうえで対策を行い、適切な使用環境を構築しましょう。

新時代のマーケターとして活躍するための生成AI活用ガイド

【2025年版】新時代のマーケターとして活躍するための生成AI活用ガイド

マーケティング業務の効率化と成果向上を実現するためのAI活用手法を解説

本記事では、生成AIで情報漏洩が起こる原因や具体的な対策、事例について解説します。生成AIをビジネスに活用したいと考えている方は、ぜひ参考にしてください。

生成AIを使用する際は情報漏洩に注意が必要

生成AIには、情報漏洩のリスクがあります。機密情報や個人情報をAIに入力すると、入力データがAIの学習データとして使用され、第三者に共有される可能性があるためです。

企業が生成AIを導入したことで、内部情報が外部に漏れた事例も実際にあります。また、生成AIを狙った最新のサイバー攻撃手法も報告されており、生成AIの使用におけるガバナンス体制の構築とセキュリティ対策の重要性が高まっています。
 

生成AIにおける情報漏洩の事例

ここでは、生成AIに関連した情報漏洩の事例を4つ紹介します。

  • プロンプト入力における機密情報の漏洩
  • ウイルスによる個人情報の流出
  • バグによる情報漏洩
  • 脆弱性による情報漏洩
     

プロンプト入力における機密情報の漏洩

サムスン電子では、2023年4月にエンジニアが機密情報であるソースコードを生成AIに入力し、情報が流出しました。このことをきっかけに、同社はAIを搭載したチャットボットの社内利用を禁止しました。入力データが他のユーザーへの回答に用いられる可能性や、AIサービスの運営企業のサーバーに保存される点を懸念した結果の措置です。
 

ウイルスによる個人情報の流出

ChatGPTのアカウント情報がマルウエア(コンピューターウイルスの一種)によって流出したことが発覚しています。2023年5月までの1年間でアカウントの10万1,000件以上が、ダークウェブで取引されており、日本からも661件が情報漏洩しているとされています。
 

バグによる情報漏洩

ChatGPTの開発元であるOpenAIは、2023年3月にオープンソースライブラリのバグが原因で、一部のユーザーに他ユーザーのチャット履歴のタイトルが表示される問題が発生したと発表しました。

さらに、同じバグが原因で特定の時間帯にアクティブだったChatGPT Plus加入者の1.2%において、氏名・メールアドレス・支払い先住所・クレジットカード情報の一部(種類、下4桁、有効期限)が、ほかのユーザーに表示される可能性があることがわかりました。OpenAIは、サービスを一時停止してバグを修正し、影響を受けた可能性のあるユーザーへ通知するとともに、再発防止策を講じました。
 

脆弱性による情報漏洩

株式会社リートンテクノロジーズジャパンが運営する対話型生成AIサービス「リートン」において、技術的な脆弱性が発見されました。原因はデータベースシステムの設定不備で、特定の操作を行うと第三者が利用者のニックネーム、入力プロンプトと生成結果、登録に使用したメールアドレスやLINE IDなどを閲覧・編集できる状態になっていました。

同社は利用者からの通報を受けてシステム全体の改修を実施しており、2024年3月時点でデータの悪用は確認されていないとしています。

生成AIの利用による情報漏洩以外のリスクについては、こちらの記事で詳しく解説しています。

 

生成AIで情報漏洩が起こる原因

生成AIを業務に活用する際には、情報漏洩のリスクを正しく理解し、対策する必要があります。生成AIの活用で情報漏洩が起こる要因として、主に次の3つが考えられます。

  • 機密情報を生成AIに入力
  • 生成AIへのサイバー攻撃
  • 生成AIのバグ
     

機密情報を生成AIに入力

生成AIからの情報漏洩の主な原因としてあげられるのが、機密情報の入力です。

生成AIは入力データを学習し、出力の精度を高めるメカニズムになっています。そのため、顧客情報や機密情報を生成AIに入力すると、ほかのユーザーへの回答に利用されることで、情報が漏洩する恐れがあります。

情報漏洩を防止するには、次のような対策が有効です。

  • 生成AIの利用ルールを決める
  • 機密情報などの重要な内容は生成AIに入力しない
  • 生成AIのリスクに関する研修を実施する
  • 生成AIに入力データを学習させない設定にする

社内でAIの利用ルールを明確化し、「機密情報は入力禁止」といったガイドラインを設けましょう。入力禁止事項を具体的にリストアップし、マニュアルにするとわかりやすくなります。また、ChatGPTなどのツールでは、入力データを学習させない設定も可能です。
 

生成AIへのサイバー攻撃

生成AIに対するサイバー攻撃を行う「プロンプトインジェクション」も情報漏洩の要因となります。これは、悪意のあるユーザーが特殊なプロンプト(命令文)を入力し、AI開発者の意図しない情報をAIから引き出す攻撃手法です。

悪意のあるプロンプトを入力することで、AIが本来秘匿すべき情報を出力してしまうリスクがあります。このような攻撃は、ユーザー側で防ぐことが難しく、AI開発元の対策が必要です。また、生成AIは、入力データをインターネット上で保管しているため、不正アクセスによって情報が流出する可能性もあります。

サイバー攻撃から大切な情報を守るには、信頼性の高い生成AIサービスを選定することが重要です。暗号化技術などのセキュリティ対策を行っているシステムや、頻繁に更新されていて高いセキュリティ基準が維持されているシステムを選びましょう。
 

生成AIのバグ

生成AIの開発や運用の過程で生じるシステム上のバグが、情報漏洩を引き起こす可能性もあります。実際に、チャット履歴のタイトルがほかのユーザーに誤って表示された事例も報告されています。

セキュリティシステムの更新が定期的に行われている生成AIサービスなら、バグによる脆弱性が放置される危険性が少なく、情報漏洩の防止につながります

 

情報漏洩を含む生成AIの課題に関する各国の方針・規制

情報漏洩を含む生成AIの課題に関しては、各国で対応や方針が分かれています。ここでは、4つの国や連合の規制・方針を解説します。

  • 日本
  • アメリカ・EU・イギリス
     

日本

日本は、AIに関する包括的な法規制の導入には慎重な姿勢を示しており、現時点では、民間事業者の自主的な取り組みを重視する「ソフトローアプローチ」を目指しています

経済産業省は2021年にAI原則実践のためのガバナンス・ガイドラインを公表(2022年改訂)し、AI事業者に対して実践例を交えた行動目標を示し、自主的な取り組みを促しています。

また、2023年12月には、政府が「AI事業者ガイドライン案」を公表しました。人権への配慮、偽情報対策、安全性、プライバシー保護など10個の原則が示されています。さらに、人間の意思決定や感情を不当に操作するようなAIの開発はさせないとしています。これらのガイドラインは、法的拘束力を持たないものの、AI開発・利用における倫理的な指針としての役割を果たしているといえるでしょう。

その後、国民からの意見収集を経て、2024年4月には、AI事業者ガイドライン(第1.0版)として正式に公表されました(2025年4月時点で2025年3月公表の第1.1版が最新)。

生成AIに関する著作権の考え方は、次の記事で詳しく解説しています。

 

アメリカ・EU・イギリス

アメリカは、AIに関する包括的な規制よりも民間主導の自主的な取り組みを重視し、技術革新を阻害しないよう配慮しつつ、必要に応じて政府が介入する姿勢です。EUは、世界に先駆けてAIに関する最も厳しく包括的な規制を導入しようとしています。2024年5月には、世界初の包括的なAI規制法である「AI法(AI Act)」が成立しました。イギリスは、AI規制に対してイノベーションを促進しつつ、リスクを適切に管理し、柔軟にアプローチする姿勢です。
 

生成AIによる情報漏洩を防ぐ対策方法

生成AIの活用において、情報漏洩のリスクが生じることは避けられません。しかし、次のような対策でリスクを抑えることは可能です。

  • 生成AIの利用ルールを決める
  • 生成AIのリスクに関する研修を実施する
  • 生成AIに入力データを学習させない設定にする
  • セキュリティ基準が高い生成AIサービスを利用する
     

生成AIの利用ルールを決める

生成AIの安全な活用には、明確な利用ルールを定めることが重要です。

例えば、「機密情報・個人情報の入力は禁止」「特定の生成AIサービスのみ使用可」など、企業の業務実態に合わせたルール作りが求められます。また、プロンプトとして入力してはいけない機密情報の具体例をリスト化しておくと、利用者が判断しやすくなるでしょう。

制定したルールは、運用実態に合わせて定期的に見直しを行いましょう。
 

生成AIのリスクに関する研修を実施する

情報漏洩は、知識不足や誤った認識から発生することがあるため、利用者に対して生成AIのリスクに関する研修を実施しましょう

研修で生成AIがどのように情報を処理・蓄積するのかを説明し、具体的なリスク事例などを共有することで、利用者一人ひとりが「自分ごと」として危機感を持つことにつながります。定期的な研修を通じて、組織全体のリスク管理能力を底上げすると良いでしょう。
 

生成AIに入力データを学習させない設定にする

情報漏洩のリスクを下げるためには、生成AIがユーザーの入力内容を学習しないように設定(オプトアウト)することも有効です。

学習設定を無効化できるオプションが用意されている生成AIサービスも多いため、確認してみましょう。企業向けプランに申し込むと、自動で学習設定がオフになるシステムもあります。こうした設定を事前に確認・適用することで、情報漏洩の対策につながります。
 

セキュリティ基準が高い生成AIサービスを利用する

セキュリティ対策が不十分なシステムを利用すると、サイバー攻撃の標的になりやすく、入力した情報が外部に漏洩する可能性があります。

システムの選定時は、データ暗号化やアクセス制限、定期的なセキュリティシステムの更新といったセキュリティ基準を確認しましょう。情報セキュリティに対する取り組みが明示されたベンダーを選ぶことが、生成AIの安全な活用につながります。
 

HubSpotに搭載された生成AI機能における情報漏洩対策

HubSpotでは、生成AI機能を含むすべてのツールにおいて、情報漏洩を防ぐための包括的なセキュリティ対策を実施しています。具体的な対策は以下の通りです。

◆データの暗号化と分離

HubSpotに登録される顧客データは、保存時と転送時の両方で暗号化されています。また、各顧客のデータは論理的に分離され、他の顧客のデータにアクセスできない仕組みです。AI機能で処理されるデータも同様に保護されています。

◆アクセス制御と監査

ユーザーごとに細かなアクセス権限を設定でき、必要最小限の権限のみを付与する「最小権限の原則」を採用しています。すべてのデータアクセスは記録され、定期的に監査が実施されています。

◆登録された情報の取り扱い

ツール内に登録された機密情報は、生成AIによる処理が終わると、外部のAI提供会社のサーバーから即時に削除されます。そのため、重要なビジネスデータが外部に残ることはなく、安心して高度なAI機能をご活用いただけます。

◆エンタープライズレベルのセキュリティ基準

HubSpotは、SOC 2 Type II認証やISO 27001認証を取得しており、国際的なセキュリティ基準を満たしています。これにより、顧客データの機密性、完全性、可用性が保証されています。

参考:HubSpotのセキュリティー対策

AIの信頼と安全性について|HubSpot(ハブスポット)

このような多層的なセキュリティ対策により、企業の皆様は安心してHubSpotのAI機能を活用し、業務効率化を図ることができます。

HubSpot(ハブスポット)|CRM・SFA・MA・CMSなどが一元化されたビジネスに最適なツールをご提供します
 

情報漏洩に注意しながら生成AIを活用しよう

生成AIは、業務効率化やコンテンツ作成に役立つツールですが、情報漏洩のリスクも伴います。

リスクを最小限に抑えるためには、機密情報や個人情報を生成AIに入力しないようにすることが大切です。業務上、そのような情報の入力が求められる場合は、信頼のおける生成AIを選ぶことが大切です。高度なセキュリティ体制が構築されているシステムなら、バグや脆弱性が発見された場合であっても速やかな対応が期待できます。

HubSpotの生成AIをコンテンツ制作に活用するための入門ガイドは、コンテンツ制作のプロセスにAIツールを適切に取り入れる方法がわかる無料ガイドです。生成AIにできること・できないことや利用上の懸念点についても解説しているため、生成AIをビジネスに活用するためのヒントとしてお役立てください。

生成AIを活用したコンテンツ制作入門 ダウンロードする→

 

【2025年版】新時代のマーケターとして活躍するための生成AI活用ガイド

Breezeを使って生産性を向上させ成長を拡大させましょう!

HubSpotのBreezeは簡単に使える総合的なAIソリューション。

マーケティング、営業、カスタマーサービスの部門間連携を強化し、データを統合することで、ビジネスの成長を加速します。

 

 

この記事をシェアする

生成AIの関連記事

【基本編】

生成AIの基礎知識

ChatGPTの基本

画像生成AIの基本

生成AIツールの基本

応用編

ビジネス活用の応用

リスク管理・セキュリティの応用