blog

【AI初心者は要注意】ChatGPTは情報漏洩の危険性あり?思わぬ落とし穴や事例をもとに注意点を解説!

ChatGPTは世界規模のシェアを誇り、個人から企業まで幅広い層の有能なアシスタントとして活用されています。しかし、以下のような悩みによって導入を迷っている方も多いでしょう。

「ChatGPTに情報漏洩の危険はないの?」
「情報漏洩を防ぐ方法は?」

そこで今回は、ChatGPTの情報漏洩リスクを防ぐために覚えておくべきポイントを徹底解説します。

【記事を読んで得られること】

  • ChatGPTの情報漏洩が起きる原因・考えられるトラブル
  • ChatGPTの情報漏洩を防ぐためにやるべきこと
  • ChatGPTの情報漏洩についてよくある質問への回答

情報漏洩が起きる原因やトラブルについても掲載しているので、ぜひ参考にしてください。

目次

ChatGPTは情報漏洩の危険性があるって本当?

ChatGPTのセキュリティ対策における取り組みは、OpenAIの公式サイトをはじめ様々なプラットフォームで公開されています。

もちろん高水準な情報漏洩対策が設けられているものの、それでもアクシデントが発生する可能性はゼロとは言い切れません。ChatGPTのユーザーが入力したデータは、サービスの品質向上やAIモデルの改善のために活用される可能性があります。

機密情報や個人情報を誤って入力してしまうと、意図せずシステムに保存されたり、別のユーザーが入力した内容への回答に使われるリスクがあるのです。なお、この仕組みは「オプトイン」と呼ばれ、学習機能としてChatGPTに搭載されています。

さらにChatGPTを含む全てのAIサービスには、サイバー攻撃やコンピュータウイルスによりデータが流出する危険性も潜んでいます。

ChatGPTがどれだけ高度なセキュリティ性を設けていたとしても、そもそも100%安全なウェブサービスは存在しないという前提で利用した方が良いでしょう。

しかし、このリスクはきちんとユーザーが対策することで大幅に軽減できますから、本記事の解説を押さえて利用を検討してみてください。

ChatGPTへの情報漏洩が起きてしまう主な原因

情報漏洩の原因には「外部要因」と「内部要因」の2つがあります。

外部要因とは、ハッキングや不正アクセスによるデータの流出など「第三者による意図した犯行」のことです。対して内部要因は、ChatGPTのオプトインによる個人情報の流用などを指します。

上記を踏まえた具体的な事例としては以下があげられるでしょう。

  • OpenAI社への情報提供
  • 生成AIによる学習
  • セキュリティ事故による情報の流出

以下でそれぞれのパターンを具体的に解説するので、ぜひ参考にしてください。

OpenAI社への情報提供

ChatGPTを利用する際に入力したデータは、基本的にOpenAI社のシステムに送信されます。

OpenAIの社員が自由に閲覧できるわけではありませんが、少なくともOpenAIには自社のアイデアや個人情報などがストックされてしまうことにはなります。

OpenAIのサービスを使う以上、これを避けるのは難しいのが正直なところです。もちろん安易に流出される心配はないものの、気になる場合は機密情報や個人情報をダミーの仮名などに置き換えて使うようにしましょう。

生成AIによる学習

ChatGPTには、ユーザーの入力データを学習して機能向上するオプトインという機能が搭載されています。

生成クオリティを高めるうえでは重宝するものの、自社のアイデアなどが他のユーザーへの回答として流用される可能性もゼロではないということです。

ただ、オプトインを避けるのはそこまで難しくありません。以下の記事で学習機能を停止させるオプトアウトについて掲載しているので、ぜひ参考にしてください。

関連記事:ChatGPTのオプトアウト機能とは?メリットや活用すべきシチュエーションも解説!

セキュリティ事故による情報の流出

ChatGPTに限らず、Web上におけるすべてのサービスにはセキュリティの不備やサイバー攻撃による情報流出のリスクがあります。

ChatGPTの場合、万が一OpenAIがサイバー攻撃にあえば、これまで入力したデータが流出してしまう可能性もあるでしょう。

この場合、ユーザーにできることは限られてきますが、定期的にセキュリティポリシーや具体的な対策を確認し、少しでも脆弱性を感じた際は利用を停止するなどがあげられます。

自社に対するサイバー攻撃を防止したいなら、暗号化通信や二要素認証、セキュリティソフトといった対策を行うのがおすすめです。

ChatGPTの情報漏洩によって起こりうるトラブル

ChatGPTの情報漏洩によって起こりうるトラブルには、以下があげられます。

ChatGPTの情報漏洩によって起こりうるトラブル
  • 個人情報・機密情報の漏洩
  • ディープフェイクの濫用
  • 不適切なアウトプットの生成(ハルシネーション)

それぞれにおける具体例とリスクについても見ていきましょう。

個人情報・機密情報の漏洩

ChatGPTに入力したデータが漏洩すると、個人情報や企業の機密情報が外部に知られるリスクがあります。

たとえば、新製品の企画書や、機密性の高い資料を入力していると、その情報が第三者に流出し、努力して作り出したアイデア自体が盗まれてしまう、というわけです。

さらに顧客の名前や連絡先といった個人情報が漏洩すれば、信頼関係が損なわれるだけでなく、法的な問題を引き起こすリスクも高まるでしょう。

ディープフェイクの濫用

ディープフェイクとは、生成AIを活用して人物の見た目や音声を含むコンテンツを合成する技術。ChatGPTへ入力した情報が外部へ漏れてしまうと、第三者により悪意のあるディープフェイクコンテンツを作成される可能性があります。

具体的には「特定の人物が発言していない内容を、あたかもその人が発言したかのように仕立て上げた動画」を作り出されるリスクがあるということ。

特に最近はSNSやメディアを通じて誤情報が広まってしまうと、動画が「デジタルタトゥー」として世の中のどこかに残ってしまうため、ウェブサービスを使ううえでは最大限注意したいところです。

不適切なアウトプットの生成(ハルシネーション)

ChatGPTを含む生成AIは、誤った情報や不適切な内容を生成することがあります。これは「ハルシネーション」と呼ばれており、AIが自律思考しにくい質問を受けた際、現時点で参照できる情報をもとに「それらしい」回答を生成してしまうのです。

そして、特に注意したいのが最新情報を抽出させる場合です。ChatGPTがストックしている情報は一定期間に限られているため、それに付随する質問を受けたときにハルシネーションが発生しやすい傾向にあります。

また、ハルシネーションが発生しても、AIから「この回答は自信がありません」などと申し出てくれることはなく、一見すると非常に的を得た生成に見えてしまいます。

そのため、ChatGPTであっても性能を過信することなく、人間側で必ずダブルチェックを行うようにしましょう。

ChatGPTの情報漏洩における具体的な事例

ここからは、ChatGPTによる情報漏洩が発生した事例について紹介します。

ChatGPTとnotionの連携方法
  • サムスンの社内ソースコードがChatGPT経由で外部へ流出
  • ChatGPTアカウントの闇取引市場への流出

それぞれの事例が発生した原因をチェックし、今後ChatGPTを活用するうえでの参考にしてください。

サムスンの社内ソースコードがChatGPT経由で外部へ流出

サムスンの従業員が社内ソースコードを含む技術的な課題解決に向けた指示をChatGPTに入力し、情報をリークさせてしまった事例が発生しました。

詳細は公開されていないものの、社内エンジニアが機密情報のひとつであるソースコードをChatGPTにアップロードしたことが原因とされています。

オプトアウトしていなかったことにより、他のユーザーへの回答として提案されてしまったことから、企業が利用する際に最も注意するべき事例と言えるでしょう。

ChatGPTアカウントの闇取引市場への流出

インターネットやSNSを介して、ChatGPTアカウントが闇取引市場へ流出しているといった事象も報告されています。

過去にはシンガポールの情報セキュリティ会社Group-IBにより、日本からChatGPTのログイン情報(IDとパスワード)が漏洩しているといった発表もありました。

原因は明らかになっていないものの、以下の原因が考えられるでしょう。

  • アカウントの二要素認証が有効化されていない
  • 普段閲覧しているWebサイトからChatGPTへの入力履歴が流出した
  • ChatGPTへのログイン情報をオンラインクラウド上にメモしていた など

利用料金はそのまま払わされつつ、機密情報の収集や違法な活動に使用されてしまううえ、発覚までに時間がかかる点も大きな懸念要素と言えます。

ログイン情報の流出を防ぐには、複雑なパスワードやセキュリティ設定を見直し、定期的に更新するのがおすすめです。

ChatGPTの情報漏洩を防ぐためのポイント

ここからは、ChatGPTの情報漏洩を防ぐためのポイントをジャンル別に解説します。

ChatGPTの情報漏洩を防ぐためのポイント
  • ChatGPT上で行うべき施策
  • ChatGPTを利用する端末上で行うべき施策
  • ChatGPTを利用する組織で行うべき施策

それぞれ詳しく見ていきましょう。

ChatGPT上で行うべき施策

ChatGPTの情報漏洩を防ぐために行うべき施策は以下のとおりです。

ChatGPT上で行うべき施策
  • オプトアウト機能を使う
  • 個人情報や機密情報を入力しない
  • API版のChatGPTを利用する
  • チャット履歴を定期的に削除する

それぞれの施策における具体的なポイントもチェックしておきましょう。

オプトアウト機能を使う

ChatGPTの情報漏洩を防ぐには、まずオプトアウト機能をオフにするのがおすすめです。

これは入力した内容がAIモデルの学習に利用されない仕組みを指しており、先ほど触れたサムスンのような事例を高い確率で防止できます。

設定手順はそこまで複雑ではないため、以下の記事を参考に進めてみてください。

関連記事:ChatGPTのオプトアウト機能とは?メリットや活用すべきシチュエーションも解説!

個人情報や機密情報を入力しない

ChatGPTの情報漏洩を回避したいなら、そもそも個人情報や機密情報を入力しないのもおすすめです。

ただ、それでは業務効率が低下してしまいますから、顧客や特許に関してはダミーの固有名詞を使うなどして、仮に情報漏洩しても問題がないように対策すると良いでしょう。

API版のChatGPTを利用する

安全性を重視したい方は、API版のChatGPTを利用するのもおすすめです。

API版のChatGPTは、デフォルトでデータが学習に使用されないように設定されているため、通常よりも情報漏洩のリスクが低くなります。

APIに関しては以下の記事でも解説しているので、ぜひ参考にしてください。

関連記事:ChatGPT APIとは?料金や使い方・注意点などを活用事例も交えて網羅的に解説

チャット履歴を定期的に削除する

ChatGPTに保存されたチャット履歴を定期的に削除することも、情報漏洩を防ぐうえで効果的な対策です。定期的に削除すれば、過去のやり取りが第三者に見られてしまうリスクを防げるでしょう。

なお、先ほど触れたオプトアウトを行えば、チャット履歴は自動的に削除されますが、学習機能を切りたくない場合は手動で削除するのがおすすめです。

ChatGPTを利用する端末上で行うべき施策

ChatGPTを利用する端末上で行うべき施策は以下のとおりです。

ChatGPTを利用する端末上で行うべき施策
  • セキュリティソフトの更新を定期的に行う
  • ChatGPTと連携できるセキュリティツールを導入する
  • 物理的なセキュリティ事故にも注意する

それぞれ詳しく見ていきましょう。

セキュリティソフトの更新を定期的に行う

端末上のセキュリティソフトは常に最新の状態にしておきましょう。

最新のソフトウェアでは、新たに発見された脆弱性に対応するパッチが適用されるため、ウイルスやマルウェアから端末を保護する機能が大幅に向上します。

ChatGPTを利用するのであれば、ファイアウォールなどのセキュリティツールや、リアルタイムスキャン機能がおすすめ。また、セキュリティツールを利用する際は、手動での更新忘れを防ぐために自動更新を有効にしておいてください。

ChatGPTと連携できるセキュリティツールを導入する

セキュリティツールを導入する際は、ChatGPTと連携可能な製品を選ぶ様にしましょう。具体的には以下のとおりです。

  • Safe AI Gateway
  • エアトリスマートAI
  • SELFBOT など

また、上記をAPIで連携する場合、通信が暗号化されつつ追加の認証プロセスを組み込むことで、セキュリティを強化できます。

物理的なセキュリティ事故にも注意する

端末のセキュリティは、物理的なアクセスに対する対策も必要です。

公共の場などで作業する際、端末を無防備な状態で放置しないよう徹底し、脇から見られないように覗き見防止フィルターなどを貼っておくと良いでしょう。

加えて、端末には複雑なパスワードや生体認証を設定して、不正アクセスまで対策しておくのがおすすめです。

ChatGPTを利用する組織で行うべき施策

ChatGPTを利用するにあたって、組織単位で行うべき施策は以下のとおりです。

ChatGPTを利用する組織で行うべき施策
  • ChatGPTを利用するうえでのルールを決める
  • ChatGPTに関する教育の場を設ける
  • ChatGPT Enterpriseプランを利用する

それぞれの施策における注意点にも目を通しておきましょう。

ChatGPTを利用するうえでのルールを決める

組織内でChatGPTを使用する際は、事前に全体でルールを作っておきましょう。

ChatGPTに入力して良いデータの範囲を明確にし、個人情報や機密情報はそもそも入力自体禁止することで、情報漏洩リスクを低減できます。

なお、自社でマニュアルなどを作成する余裕がなければ、ChatGPTに考えさせた方が効率的です。ルールを文書化し、組織内で共有して全員が同じ基準で利用できるような仕組みを整えましょう。

ChatGPTに関する教育の場を設ける

従業員がChatGPTを正しく利用できるよう、教育やトレーニングの場を設けることも重要です。

ChatGPTの利用方法、情報漏洩リスク、オプトアウト機能の設定方法について説明するセミナーなどを開催すると良いでしょう。

その際は、ChatGPTのハルシネーションも解説し、生成された情報をそのまま使わないように促すのもおすすめ。全体のリテラシーを均一化すれば、少なくともヒューマンエラーのリスクについては抑えられるはずです。

ChatGPT Enterpriseプランを利用する

組織規模で安全にChatGPTを活用したいなら、ChatGPTのEnterpriseプランを利用するのもおすすめです。

Enterpriseプランでは、データがモデルの学習に使用されないオプトアウト設定がデフォルトで適用されているため、情報漏洩リスクを大幅に抑えられます。

また、Enterpriseプランでは、利用状況の分析やアクセス権限の管理といった組織向けのセキュリティ機能も活用できます。

ChatGPTのEnterpriseプランは以下の記事でも解説しているので、ぜひ参考にしてください。

関連記事:ChatGPT Enterpriseとは?企業向けプランの料金や契約方法・TeamとPlusとの違いを解説

ChatGPTの情報漏洩に関連するよくある質問

最後に、ChatGPTの情報漏洩に関連するよくある質問を見ていきましょう。

ChatGPTの情報漏洩に関連するよくある質問
  • ChatGPTへ入力した内容はどこで管理されている?
  • ChatGPTに質問してはいけないことは?
  • ChatGPTへ入力した情報が流出していないか確認する方法はある?
  • ChatGPTへの入力履歴を削除する方法は?

それぞれ詳しく解説します。

ChatGPTへ入力した内容はどこで管理されている?

ChatGPTへ入力した内容は、OpenAI社のサーバー上で処理されています。OpenAI社のサーバーには高度なセキュリティ対策が施されていますが、ウェブサービスである以上、100%信じ切るのはおすすめできません。

機密情報などはダミーの固有名詞を使い、オプトアウトなども活用してセキュリティ性を高めるようにしましょう。

ChatGPTに質問してはいけないことは?

ChatGPTに質問してはいけない内容としては、以下があげられます。

  • 個人情報・機密情報を意図的に聞き出す質問
  • 特許や新アイデアに関する質問 など

上記を質問すること自体は問題ありませんが、自社のアイデアや個人情報を質問に含めるのは避けた方が良いでしょう。

また、ハルシネーションのリスクもありますから、最新情報は極力質問しないようにするのがおすすめです。

ChatGPTへ入力した情報が流出していないか確認する方法はある?

2024年12月時点で、ChatGPTに入力した情報が外部に流出していないかを個別に確認する方法はありません。

他のサービスでも共通ではあるものの、一度流出したデータの行方を追いかけるのは現実的に難しいでしょう。きちんと対策を施して、事前にリスクを抑えられるように運用してみてください。

ChatGPTへの入力履歴を削除する方法は?

ChatGPTへの入力履歴を削除するには、ChatGPTへログイン後「データ管理」項目を開き、保存された履歴を選択して削除すれば問題ありません。

また、オプトアウト機能を有効にすれば、入力履歴自体が自動で保存されなくなるため、積極的に活用してみてください。

ChatGPTを活用するときは情報漏洩に細心の注意を払うべき

この記事では、ChatGPTにおける情報漏洩の危険性や、防ぐために行うべき施策について解説しました。

ChatGPTを含む全てのウェブサービスにおいて、情報漏洩リスクを完全にゼロ化するのは難しいでしょう。しかし、以下の対策を行えば、そのリスクを大幅に抑えられます。

  • オプトアウト機能を使う
  • 個人情報などはダミーの仮名にする
  • enterpriseプランを利用する など

今回解説した事例や対策方法を参考にしつつ、情報漏洩のリスクを踏まえた運用体制を整えていってください。

目次