なぜChatGPTから情報漏洩する?その仕組みと対策

ニュースなどでChatGPTからの情報漏洩について聞いたことのある方も多いのではないでしょうか。ChatGPTの導入を検討する企業が増えている昨今、こういった問題はどの企業にとっても他人事ではありません。

そこで、この記事では、ChatGPTからの情報漏洩がどのような仕組みで起こり得るのか、そしてその対策について詳しく解説します。

ChatGPTによる情報漏洩の仕組み

ChatGPTによる情報漏洩の原因には、ChatGPTをより高性能にするために行う学習の仕組みが影響しています。
詳しく見てみましょう。

AIモデルの学習プロセス

ChatGPTのAIモデルは、膨大なテキストデータを基に学習を重ねて構築されています。このプロセスでは、ユーザーが入力した内容も学習データとして活用される可能性があります。つまり、私たちがChatGPTに入力した情報が、AIの知識ベースに組み込まれ、将来的に他のユーザーとのやり取りに影響を与える可能性があるのです。

この仕組みは、AIの性能向上に寄与する一方で、情報漏洩のリスクもはらんでいます。例えば、企業の機密情報や個人のプライバシーに関わる内容を入力した場合、それが学習データに取り込まれ、意図せず他者に開示されてしまう可能性があります。

AIモデルは、入力された情報を文脈や意味を理解しながら処理し、関連性の高い回答を生成します。そのため、学習した内容が、別のユーザーの質問に対する回答の中に、部分的または間接的に反映される可能性があるのです。

イメージ図

プロンプトとレスポンスの保存メカニズム

ChatGPTのプロンプト(入力内容)とレスポンス(回答内容)は、OpenAIのサーバーに自動的に保存されます。この仕組みは、サービスの品質向上を目的としています。特にChatGPTの有料プランやAPIで利用する場合、データはAES-256という高度な暗号化技術によって保護され、個人を特定できない形で匿名化されます。

データの保持期間は通常30日間とされており、この期間を過ぎると自動的に削除されます。ただし、ユーザーが明示的に削除をリクエストした場合は、即時に対応され、ユーザーは自身のアカウント設定から、過去の会話履歴を確認し、不要なデータを選択して削除することが可能です。

また、OpenAIは定期的にデータ保護方針を見直し、最新のセキュリティ基準に準拠するよう努めています。最新のセキュリティ基準は公式サイトから参照できるため、詳しく知りたい場合はOpenAIのWebサイトで確認しましょう。

サードパーティ製アプリケーションにおけるセキュリティ

ChatGPTの機能を活用して目的別や組織用に使いやすく作られたサードパーティ製アプリケーションが増えています。当コラムを運営するHEROZが提供するHEROZ ASKもそのひとつです。

サードパーティー製アプリケーションのなかには、業務効率化のために安心して社内情報をChatGPTに安全にアップロードできたり、入力内容をChatGPTに学習させない仕組みになっていたり、ChatGPTを業務に活用・浸透させるためのユーザーサポートが充実しているサービスもあります。

こういったサードパーティ製アプリケーションの多くは、Azure OpenAI Serviceを用いて構築されています。Azure OpenAI Serviceとは、最先端のAI技術をセキュアで拡張性の高いクラウド環境で利用できるマイクロソフトが提供するサービスです。

Azure OpenAI Serviceを利用して構築されたサードパーティー製アプリケーションはOpenAIのAPI※1 のみで構築されたアプリケーションよりもコンプライアンス要件を満たしやすく、Azure OpenAI Serviceの強固なセキュリティ基盤を活用できるため、データ保護や不正アクセス防止などの面で安心といえます。

Azure OpenAI Serviceを利用して、自社でChatGPTを安全に使うための環境を構築することも可能ですが、自社で開発・維持するよりもサブスクリプション形式でサードパーティー製アプリケーションを利用するほうがコスト面で勝ることもあるでしょう。

→月額900円〜/ユーザで安全にChatGPTが使える。HEROZ ASK

※1 ChatGPTのAPIとは、ChatGPTの機能を自社のアプリケーションやサービスに統合し、テキスト生成や会話機能を実装するための仕組みのこと。

ChatGPTの情報漏洩インシデントと教訓

ChatGPTを利用する企業が増える中、情報漏洩のリスクも現実のものとなっています。実際に起きた事件の詳細と問題点について見てみましょう。

企業内で起きた情報漏洩インシデント

2023年4月、ある大手テクノロジー企業の従業員がChatGPTを業務で使用した際に、機密情報が漏洩するという事態が発生しました。この事件では、従業員が半導体製造に関する機密データや社内会議の議事録などをChatGPTに入力してしまい、それらの情報がOpenAIのサーバーに保存される結果となりました。

このインシデントの主な問題点をまとめてみます。

①機密情報の外部流出
企業秘密や個人情報が第三者のサーバーに保存されてしまった。

②セキュリティ意識の欠如
従業員がAIツールの使用におけるリスクを十分に認識していなかった。

③社内ガイドラインの浸透不足
この企業では、「社内情報セキュリティを遵守し、機密情報は⼊⼒しないこと」とガイドラインを設定していたことが分かっている。2のセキュリティ意識の欠如と合わせて、ガイドラインの内容が十分に浸透していなかった。

この事件を受け、この企業は社内でのChatGPTの使用を一時的に禁止し、情報セキュリティポリシーの見直しを行いました。また、従業員向けのセキュリティ教育を強化し、AIツールの適切な使用方法について指導を行ったようです。

この事例は、急速に普及するAI技術の利用に伴う新たなセキュリティリスクを浮き彫りにし、企業が従業員のAIツール使用に関する明確なガイドラインを策定すること、そしてその浸透の重要性を示しました。

Open AIで起きた情報漏洩インシデント

ChatGPTの提供元であるOpenAIでも情報漏洩インシデントが発生しています。2023年3月に発生したバグにより、一部のユーザーが他のユーザーの会話履歴や個人情報を閲覧できる状態になりました。影響を受けたのは約1.2%のユーザーで、主に漏洩した情報は会話内容、支払い関連情報、連絡先詳細などでした。

この事例から得られた重要な教訓は、AIシステムの複雑さと予期せぬ脆弱性の存在です。高度な技術を持つOpenAIでさえも、完全なセキュリティを保証することは困難であることが明らかになりました。

OpenAIは迅速に対応し、問題を特定後すぐにサービスを一時停止しました。その後、バグの修正と影響を受けたユーザーへの通知を行いました。再発防止策として、セキュリティ監査の強化、システムの冗長性の向上、そしてインシデント対応プロセスの改善が実施されました。

インシデント事例から学ぶ重要なポイント

ChatGPTの情報漏洩事例を分析すると、いくつかの共通点や特徴が浮かび上がります。多くの場合、ユーザーが意図せずに業務上の秘匿情報や個人情報を含む文章をそのまま入力してしまうなど、機密情報をプロンプトに含めてしまうことが原因となっているのです。

ビジネスにおけるChatGPT情報漏洩の防止策

では、具体的にどのように情報漏洩対策をすればよいのでしょうか?詳しく見ていきましょう。

社内ガイドラインの策定と従業員教育

ChatGPTの企業利用における情報漏洩対策として基礎となるのは、ガイドラインの策定とその浸透のための施策です。ただガイドラインを策定するだけではなく、テストを実施する、過去に起きた情報漏洩インシデントについて共有するなど、従業員のセキュリティ意識を高めていきましょう。

ChatGPTの使用状況の管理

ChatGPTの使用履歴を定期的に確認し、不適切な使用がないかをモニタリングすることも重要です。さらに、企業が利用しやすく、適切なセキュリティ対策をされたサードパーティー製アプリケーションを導入して一律で利用させることで、利用の管理をしやすくするという方法もあります。

ChatGPTの設定最適化(履歴オフなど)

ChatGPTの会話履歴をオフにすることで、情報漏洩のリスクを大幅に低減できます。設定画面から「Chat History & Training」をオフにすると、会話内容がOpenAIのサーバーに保存されなくなります。この設定により、入力した機密情報が長期的に保存されることを防ぎ、第三者によるアクセスリスクを軽減できます。

ただし、履歴オフ設定時は過去の会話を参照できなくなるため、文脈を理解した応答が難しくなる可能性があります。また、アカウント削除オプションを利用すれば、過去の会話データを完全に消去することも可能です。

ChatGPTを安全に活用するための技術

ChatGPTを安全に活用するには、いくつかの重要なポイントがあります。まず、機密情報を含まないプロンプトの作成が不可欠です。業務上の重要データは避け、一般的な表現に置き換えることで、情報漏洩のリスクを軽減できます。

機密情報を含まないプロンプトの作成方法

プロンプトを作成する際に機密情報を含まないようにするには、まず個人情報や機密データを一般化・抽象化する技術が重要です。具体的な名前や数値を「ある人物」や「特定の金額」といった表現に置き換えることで、本質的な内容を保ちつつ機密性を確保できます。

また、プレースホルダーやダミーデータの効果的な使用も有効です。実際のデータの構造や形式を維持しながら、架空の情報で置き換えることで、AIに正確な処理方法を伝えつつ、機密情報の漏洩を防ぐことができます。

機密情報を排除しつつ目的を達成するプロンプトを構築するには、まず目的を明確にし、それに必要最小限の情報のみを含めるよう心がけます。具体的な例を挙げる場合も、一般化された形で提示することが大切です。

さらに、プロンプト作成前にセキュリティチェックリストを活用することで、不用意な情報の含有を防ぐことができます。このリストには、個人識別情報、財務データ、知的財産に関する情報などの項目を含め、各項目について慎重に確認することが重要です。

これらの方法を組み合わせることで、ビジネス目的を達成しつつ、ChatGPTを介した情報漏洩リスクを最小限に抑えることが可能となります。

代替手段の検討と適切な使い分け

ChatGPTの代替手段となるツールの検討と適切な使い分けを行うこともセキュリティ対策においては重要です。機密性の高い情報を扱う場合、ChatGPTを利用したサードパーティー製アプリケーション、具体的には企業向けのAIアシスタントツールなどを選択することで、データの管理やセキュリティを強化できます。

業務内容に応じて、ChatGPTと代替手段を使い分けることも効果的です。一般的な問い合わせや創造的なアイデア出しにはChatGPTを活用し、機密性の高い財務データや個人情報の処理には専用のAIツールを使用するなど、情報の重要度に応じて適切なツールを選択します。

重要なのは、各ツールのセキュリティレベルと業務効率のバランスを取ることです。定期的に使用ツールの評価を行い、最新の技術動向やセキュリティ対策を反映させることで、安全かつ効果的なAI活用が可能となります。

企業でChatGPTを使うならセキュリティ対策されたサービスを

法人用ChatGPTのHEROZ ASKでは、セキュリティに関する基本的な機能に加え、部署ごとのアクセス権限設定や、社内データの安全な活用が可能です。また、Microsoft Azureの環境で会話履歴が学習されない設定を採用し、機密情報の保護を強化しています。

こういった企業向けのAIアシスタントツールを選ぶ際には、データの暗号化やアクセス制御、ログ管理などのセキュリティ機能のほかにも、ランニングコストや使いやすさなどの観点も必要です。HEROZ ASKは20ID以上の契約なら月額900円/ユーザーで利用できるため、OpenAIが提供する企業向けプランよりもお手頃に、安心してご利用いただけます。

詳しくはこちらから。無料デモも実施中です。