日々の業務効率化に期待が高まるChatGPTですが、セキュリティリスクに懸念を感じ、導入をためらう方も多いでしょう。
「ChatGPTを業務で使ってみたいけど、情報漏洩リスクがあるって聞いて不安だな」
「会社の機密情報とか、うっかり入力したらどうなるんだろう」
特に、企業の機密情報を扱う上での安全性は気になるポイントです。
本記事では、ChatGPTで懸念されるセキュリティーリスクとその原因、サイバー攻撃への悪用事例を解説します。
【記事を読んで得られること】
- ChatGPTの情報漏洩やサイバー攻撃リスクの実態
- セキュリティー事故が発生する主な原因
- 企業の状況に合わせた安全な利用対策
さらに、企業が安全にChatGPTを活用するための具体的な対策も紹介していますので、ぜひ参考にしてみてください。
ChatGPTのセキュリティーリスクとは

まず、ChatGPTのセキュリティーリスクとはどんなものがあるか、以下の3つを紹介します。
- 機密情報の漏洩リスク
- アカウント情報の流出リスク
- サイバー攻撃への悪用リスク
それぞれ詳しく見ていきましょう。
機密情報の漏洩リスク
ChatGPTに入力した内容は、将来的にAIの学習データとして利用される可能性があります。学習データとして利用された場合、意図せず入力した情報が他ユーザーへの回答に反映される可能性を否定できません。
具体的には、社内プロジェクトの詳細や取引先の情報を入力した場合、それが間接的に第三者へ共有されてしまう可能性も否定できません。OpenAI公式も「機密情報は入力しないように」と注意喚起しています。
情報共有の利便性が高まる反面、入力内容が保持されうるツールである点を常に意識しましょう。
情報漏洩に関しては以下の記事でも解説していますので、ぜひ参考にしてみてください。

アカウント情報の流出リスク
ChatGPTのアカウントが不正に取得されると、過去の会話履歴から重要な業務情報が流出するリスクがあります。実際に、2023年には約10万件のChatGPTアカウント情報がダークウェブで取引されたとの報告もありました。
パスワードの使い回しや二段階認証の未設定が原因となるケースが多く、情報資産を守るにはユーザー側の対策も欠かせません。
AI活用にあたっては、利便性だけでなく、基本的なセキュリティー設定の見直しも怠らないようにしましょう。
サイバー攻撃への悪用リスク
ChatGPTは、自然な文体でメッセージを生成できる一方、攻撃者が悪用するケースも確認されています。フィッシング詐欺用のメール文やマルウェア配布を目的とした案内文が、ChatGPTを通じて作成された事例があるのはご存じでしょうか。
OpenAI側では不正利用を防ぐフィルターを設けていますが、完全に防げるわけではありません。ツールの性質上、指示の工夫によって悪用をすり抜けられてしまいます。
業務利用にあたっては、ツールの活用だけでなく、社内の運用ルールや教育体制の整備も欠かせないでしょう。
ChatGPTのセキュリティー以外の問題点

ここでは、ChatGPTのセキュリティー以外の問題点について3つ紹介します。
- 誤情報拡散のリスク(ハルシネーション)
- 知的財産権(著作権)侵害のリスク
- 倫理的に不適切な表現の生成リスク
それぞれ詳しく見ていきましょう。
誤情報拡散のリスク(ハルシネーション)
ChatGPTは信頼性の高い回答をする場合もありますが、事実に基づかない内容を生成するケースも少なくありません。事実に基づかない内容を生成する現象は「ハルシネーション」と呼ばれ、AIが自信を持って、さも事実であるかのように誤った情報を回答してしまうのが特徴です。
たとえば、実在しない統計や法律、専門的な用語の誤用などがそのまま出力される場合があります。情報の正確性を担保するには、利用者が出力内容を常に検証し、出典を確認する体制を整えておく必要があるでしょう。
知的財産権(著作権)侵害のリスク
ChatGPTが生成した文章には、既存の著作物と類似する表現が含まれるケースがあります。出力内容が他人の著作権を侵害しているかどうかは、ユーザー側で判断するしかなく、そのまま転載・公開するとトラブルの原因になりかねません。
具体的には、生成された文章をそのままブログや資料に使った場合、著作権侵害を指摘されるといったリスクが考えられます。公開前に編集・加筆を加える、商用利用時には法的確認を徹底するといった対応が求められるでしょう。
著作権侵害の訴訟事例に関しては、以下の記事でも取り上げていますので、ぜひ参考にしてみてください。

倫理的に不適切な表現の生成リスク
ChatGPTは中立的な設計を目指して開発されていますが、指示内容や文脈によっては偏見や差別的な表現を含む出力をする可能性があるのはご存じでしょうか。
OpenAIは有害なコンテンツを防ぐ仕組みを導入していますが、完全なフィルターではなく、残念ながら不適切な表現が生成されるリスクは依然残っています。
偏見や差別的な表現を含む出力には、ジェンダーや国籍に関する偏った描写などが挙げられます。出力文の使用前にルールを定め、出力内容のレビュー体制をしっかり構築すると良いでしょう。
ChatGPTのセキュリティー事故が起きる原因

ここでは、ChatGPTのセキュリティー事故が起きる原因を5つ紹介します。
- 利用者が機密情報を入力してしまうため
- アカウント情報が攻撃者によって盗まれるため
- ChatGPTを装った悪意のある第三者の活動のため
- ChatGPTや関連サービスのセキュリティー対策の不備のため
- 利用者が生成された情報を適切に検証しないため
それぞれ詳しく見ていきましょう。
利用者が機密情報を入力してしまうため
ChatGPTを使うときのセキュリティー上の問題は、ユーザーがうっかり機密情報や個人情報を入力してしまうのが原因です。ChatGPTは、入力した内容がAIの再学習に使われる可能性があるため、情報が外部に漏れるリスクが高くなるでしょう。
実際に、社内文書や顧客データが誤って入力され、情報が外部に出てしまうリスクをふまえてOpenAIは「機密情報は入力しないように」と公式に注意を呼びかけています。一度入力された情報は削除できず、履歴も完全には消せないと説明しています。
企業や学校などの組織では「どんな情報を入力していいか」「どんな情報は避けるべきか」といったルールをあらかじめ決め、全員で共有すると良いでしょう。特に、仕事や研究でChatGPTを使う場合は、便利さとリスクの両方を理解し、安心してChatGPTを使うためのガイドラインを整える必要があります。
アカウント情報が攻撃者によって盗まれるため
ChatGPTのアカウント情報がサイバー攻撃によって盗まれるケースも、見過ごせないセキュリティー事故の一因です。フィッシング詐欺サイトへの誘導やマルウェアの仕込みによって、利用者のログイン情報が不正に取得されるリスクが日常的に潜んでいます。
実際には、10万件を超えるChatGPTアカウント情報がダークウェブで売買されているという海外調査の報告もあり、情報管理の重要性が再認識されています。攻撃者が不正に取得したアカウントでログインした場合、保存されているチャット履歴や入力された個人情報へアクセスされる恐れがあるでしょう。
情報が第三者によって悪用されれば、信頼や機密性が損なわれる事態にもつながりかねません。
リスクを軽減するためには、大文字・小文字・数字・記号を組み合わせた複雑なパスワードを使用し、定期的に変更する対策をしましょう。加えて、二段階認証を有効化すれば、ログイン時の追加認証を通じて不正アクセスの防止につながります。
ChatGPTを装った悪意のある第三者の活動のため
ChatGPTの急速な普及と知名度の高さを悪用した、偽サービスや偽サイトによるサイバー犯罪も深刻化しているのはご存じでしょうか。悪意のある第三者が、本物に酷似した偽のWebサイトやスマートフォンアプリを作成し、利用者を誘導する手口が確認されています。
偽サービスの多くにはマルウェアやスパイウェアが仕込まれており、利用者がダウンロードしてしまうとデバイスがウイルスに感染し、個人情報の窃取やアカウントの不正利用といった被害につながる恐れがあります。
被害を未然に防ぐためには、アクセスするサイトやダウンロードするアプリが正規のものであるかを必ず確認するのが基本です。また、不審なリンクを不用意にクリックしない、出所不明なアプリをインストールしないといった、日常的なセキュリティー対策を徹底しましょう。
ChatGPTや関連サービスのセキュリティー対策の不備のため
ChatGPTや関連する外部サービスは、OpenAIの基盤システムに不具合やセキュリティーホールが存在した場合、そこを突かれて不正アクセスや機密情報の漏洩が発生する可能性があると指摘されています。
実際、2023年3月にはOpenAIのシステム障害により、有料版ユーザーの一部において個人情報やチャット履歴が他の利用者に誤って表示される事故が発生しました。サービス提供元の一時的なミスや構造的な欠陥によっても、利用者の意図しない情報流出が引き起こされる場合があるのです。
OpenAI側も再発防止に向けてセキュリティー強化に取り組んでいますが、開発元の対策だけではリスクを完全に排除できません。したがって、ユーザー自身がセキュリティー意識を持ち、業務上の重要な情報や機微なデータを安易に入力しないといった利用上の判断をしてChatGPTを利用しましょう。
外部の連携アプリケーションやブラウザ拡張機能を活用する場合には、提供元の安全性やプライバシーポリシーを確認したうえで導入する慎重さも欠かせません。リスクはシステム単体ではなく、利用環境全体に潜んでいると考えておきましょう。
利用者が生成された情報を適切に検証しないため
ChatGPTで生成された内容には、誤りや不適切な表現が含まれている可能性があり、出力文をそのまま受け入れてしまうと、誤解を招いたり、外部に誤情報を発信したりする恐れがあります。
ChatGPTは、与えられたプロンプトに対して最も自然な言葉の流れを予測して文章を作る仕組みであり、事実かどうかを自動的に検証する機能は備えていません。ChatGPTの仕様では、もっともらしいが根拠のない内容が生成されてしまう「ハルシネーション」と呼ばれる現象が起こる場合があります。
リスクを避けるには、生成された文章やコードを人間が必ず確認し、事実関係の検証、著作権の侵害有無、倫理的な問題がないかをチェックする作業を欠かさないのがうまくAIを活用するポイントです。AIツールの出力を参考にしつつも、最終的な判断や責任は人間が担うという意識を持ちましょう。
ChatGPTのセキュリティー・安全性に関連する事例6選

ここではChatGPTのセキュリティー・安全性に関する事例を6つ紹介します。
- 悪質なマルウェア(Malware)を効率的に作成
- 高度なフィッシング詐欺(Phishing)メールを作成
- 詐欺サイトを作成
- フェイクニュース記事を作成
- ChatGPTの偽アプリや偽サイトへ誘導
- 悪意のあるハッキングコードの作成
それぞれ詳しく見ていきましょう。
悪質なマルウェア(Malware)を効率的に作成
ChatGPTが持つ高いプログラミングコード生成能力は、残念ながら悪意ある利用者によってマルウェアやサイバー攻撃用のコード作成に悪用される可能性も含んでいます。攻撃者は、特定のプログラミング言語や機能について具体的に指示すれば、短時間で効率的に悪質なプログラムを生成できてしまうのです。
OpenAIは、マルウェアや有害なソフトウェアの作成を目的とした利用を明確に禁止しており、不正なリクエストに設計上では応答していません。にもかかわらず、回避的な言い回しや曖昧な指示を使ってフィルタをすり抜け、間接的に危険なコードを出力させるケースが確認されています。
具体的には、通常は防御用ソフトの説明としてプロンプトを構成し、実際には攻撃的なロジックを生成させるよう巧みに誘導する手法などが報告されており、悪質な事例はAIの悪用リスクとして無視できません。
高度なフィッシング詐欺(Phishing)メールを作成
ChatGPTが持つ自然で流暢な文章生成能力は、フィッシング詐欺メールの巧妙化に悪用されるリスクを伴っています。攻撃者は、大手企業や官公庁を装った説得力のあるメール文面をChatGPTに作成させて、受け取り手を信じ込ませやすい文面を簡単に作成します。
従来のフィッシングメールでは、スペルミスや不自然な文体といった違和感が見抜く手がかりとなっていました。ところが、生成AIを活用した詐欺メールでは文法的な誤りが減少し、見抜くのが格段に難しくなるでしょう。
OpenAIは、フィッシング詐欺を目的としたメール作成のリクエストに対して応答しないよう設計を強化しているものの、指示文の工夫によって検出を回避されるケースも確認されています。たとえば「取引先への連絡文」や「顧客向けのお知らせ」といった表現を用い、実質的に詐欺目的の文面を作成させるのです。
詐欺サイトを作成
ChatGPTの高精度なテキスト生成能力は、詐欺サイトのコンテンツ作成にも悪用される可能性があると指摘されています。詐欺行為を目的とする攻撃者は、利用者を信用させるための誘導文や製品説明、利用規約風の記述などを、大量かつ短時間で自動生成できてしまうのです。
悪質な生成コンテンツにより、複数の詐欺サイトを迅速に構築し、ユーザーをあざむく環境が整えられてしまうかもしれません。さらに、後述するフェイクニュースやSNS上の偽レビューと連携すれば、詐欺サイトの信憑性を一見高めて見せる悪質な手法も懸念されます。
また、ChatGPTが生成した文章をそのまま転載・流用する行為は、OpenAIの利用規約や著作権の観点から問題になるケースもあるでしょう。しかし、詐欺行為を目的とした悪質な利用者によっては、法的・倫理的な配慮が行われないため、生成コンテンツの悪用リスクは軽視できません。
フェイクニュース記事を作成
ChatGPTが生成するもっともらしい誤情報、いわゆるハルシネーション現象は、フェイクニュース作成という深刻な悪用リスクをはらんでいます。ChatGPTは、文章としての自然な流れや整合性を重視して応答を生成する一方、情報の真偽を自動的に検証する機能を備えていないのが問題視されています。
ChatGPTの仕様を逆手に取り、攻撃者が実在しない事件や誤解を招く情報をねつ造し、信ぴょう性のある記事風のコンテンツとして大量に生成し、拡散させる恐れがあるでしょう。特定の企業や公人、団体に関する虚偽の情報が拡散された場合、風評被害や株価の変動、信用失墜といった深刻な影響を及ぼすリスクがあります。
また、SNSやニュースメディアを通じて検証されないまま拡散された場合、社会的混乱や誤解の拡大を引き起こすリスクも無視できません。AIが生成した情報に対しては、必ず人間が内容の正確性を確認し、出典や根拠をもとにファクトチェックをする体制を整えましょう。
ChatGPTの偽アプリや偽サイトへ誘導
ChatGPTの高い人気とブランド認知度を悪用し、ユーザーを偽のサービスへと誘導するサイバー攻撃が世界的に増加しているのはご存じでしょうか。攻撃者は、正規のChatGPTと見分けがつかないほど精巧に作られた偽Webサイトや偽スマートフォンアプリを公開し、ユーザーにアクセスやインストールを促す手口を用いています。
さまざまな偽サービスにはマルウェアが埋め込まれている場合が多く、アクセスやインストールをしたユーザーの端末は感染のリスクにさらされます。結果的に、個人情報や業務上の機密情報が窃取されたり、企業ネットワークへの不正アクセスが発生したりする深刻な被害が生じる恐れがあります。
ChatGPTの偽アプリや偽サイトへの誘導は、フィッシングやマルウェア配布の温床となっていると言えるでしょう。
悪意のあるハッキングコードの作成
前述のマルウェア作成と関連しますが、ChatGPTは悪意のあるハッキングコードの生成にも悪用されるリスクを抱えています。特定のシステムへの侵入を試みるコードや、既知の脆弱性を悪用するプログラムの生成を試みる手口が、サイバーセキュリティーの観点から深刻な懸念材料となるでしょう。
悪質な事例は、AIの高度な言語処理機能が情報収集のツールとしても悪用可能であると示唆しています。また、ダークウェブ上のハッカーフォーラムでは、ChatGPTを利用したマルウェア生成や詐欺手法に関する議論が活発であると言われており、サイバー犯罪者が技術を積極的に悪用しようとしている様子が伺えます。
ChatGPTのセキュリティー対策5選

ここでは、ChatGPTのセキュリティー対策を5つ紹介します。
- 機密情報をChatGPTに入力しない
- チャット履歴を適切に管理する
- 適切な学習設定にする
- 生成情報を鵜呑みにせず必ず内容を検証する
- 不審なアクセスに注意する
それぞれ詳しく見ていきましょう。
機密情報をChatGPTに入力しない
ChatGPTを利用する際の基本的なセキュリティー対策として、個人情報や企業機密を含む情報を入力しない点が挙げられます。
ChatGPTは、ユーザーの入力データをモデルの改善に利用する可能性があるため、入力内容が意図せず学習データとして反映されるリスクが存在します。実際に、海外企業では開発中のソースコードや未公開情報をChatGPTに入力したことにより、情報漏洩の懸念が報じられた事例もあります。
プライバシー侵害や個人情報保護法違反といった重大なリスクを回避するためにも、ChatGPTへの入力は、必ず公開可能な情報に限定するか、内容を事前に編集したうえで入力することが求められます。
機密情報や個人情報を入力するリスクについては、以下の記事でも解説していますので、ぜひ参考にしてみてください。

チャット履歴を適切に管理する
ChatGPTでは、ユーザーとのやりとりがチャット履歴として保存される仕様になっており、OpenAIによるサービス改善等の目的で利用される可能性があります。過去には、有料ユーザーの履歴が別ユーザーに表示された情報漏洩事例も報告されており、履歴の取り扱いには十分な注意が必要です。
対策としては、設定画面で「Chat history & training」をオフにすれば、履歴情報が保存・学習に利用されるのを防げます。ただし、履歴が非表示になると、過去のやりとりを自分自身でも確認できなくなるため、業務活用の際には不便に感じる場合もあるでしょう。
複数人での管理が必要な場合は、ChatGPT利用ログを可視化・管理できる外部ツールの導入も有効な手段となります。
適切な学習設定にする
ChatGPTのデータ学習挙動は利用プランによって異なる点を理解しておく必要があります。
無料版やWeb版では、入力内容がモデル学習に利用される可能性がありますが、OpenAI APIやChatGPT Enterpriseプランを利用する場合、入力データは学習対象から除外される仕様となっており、より高いセキュリティーが確保されます。
業務でChatGPTを活用する際は、API連携や法人向けプランの導入により、情報漏洩のリスクを軽減できます。やむを得ずWeb版を使う場合でも、「Chat history & training」機能を必ずオフに設定してから利用してください。
生成情報を鵜呑みにせず必ず内容を検証する
ChatGPTが生成する情報には、事実と異なる内容や誤解を招く表現が含まれる可能性があります。理由として、ChatGPTが文章の自然な構成を優先する特性上、真偽の検証をせずに情報を出力するためです。結果的に、いわゆるハルシネーションと呼ばれる現象が発生するケースも少なくありません。
ハルシネーションが含まれている可能性がある生成物をそのまま公開・活用すれば、企業の信頼性を損ねるリスクや、著作権侵害など法的リスクにも繋がる恐れがあります。生成されたテキストやコードは、必ず人間の手で検証・編集をして、事実性・正確性・法的リスクを十分に確認したうえで使用しましょう。
不審なアクセスに注意する
ChatGPTの急速な普及を背景に、知名度を利用したサイバー攻撃が増加傾向にあります。攻撃者は、ChatGPTと酷似した偽のWebサイトやモバイルアプリを作成し、ユーザーを誤って誘導しようとする手口を用います。
偽サービスにはマルウェアが仕込まれており、インストールすると端末が感染し、個人・企業情報が窃取されるリスクがあります。公式サイトや正規のアプリストア以外からはアクセス・ダウンロードをせず、不審なリンクやアプリは開かないようにしましょう。さらに、公共Wi-Fiの使用回避、VPNの活用、セキュリティー対策ソフトの導入などもあわせて検討するのがおすすめです。
ChatGPTの企業利用でセキュリティーの安全性を高める方法

最後に、ChatGPTの企業利用でセキュリティーの安全性を高める方法を5つ紹介します。
- ChatGPT導入に向けた社内ガイドラインの整備
- 社員に向けたChatGPT活用の教育
- ChatGPTの利用範囲に対するアクセス制御
- ChatGPTと連携したセキュリティー対応済みツールを導入
- API版やChatGPT Enterpriseプランを利用する
それぞれ詳しく見ていきましょう。
ChatGPT導入に向けた社内ガイドラインの整備
企業がChatGPTを安全に運用するためには、まず社内利用に関する明確なガイドラインを策定し、従業員に対して確実に周知しましょう。ガイドラインには、どの業務に活用してよいか、入力してよい情報・避けるべき機密情報の範囲、生成結果の管理方法など、具体的な運用ルールを盛り込むようにしてください。
また、ChatGPTの利用に際して発生し得る情報漏洩や不適切な利用リスクも明記し、従業員にリスク認識を促す内容とするのが望まれます。ガイドラインを明文化すれば、業務現場における判断基準が統一され、セキュリティー事故の抑止につながるでしょう。
社員に向けたChatGPT活用の教育
ルールを策定するだけではなく、従業員がChatGPTを適切に扱えるよう教育をしましょう。具体的には「なぜ特定の入力が危険か」「どのように情報漏洩が起きるか」などの背景や、実際の情報漏洩事例を交えてリスクを共有すれば、セキュリティー意識を高められます。
ChatGPTの回答には誤情報や偏った内容、著作権リスクが含まれるケースもあるため、生成物の検証を徹底するよう促す必要があります。さらに、社内での定期的なセキュリティー研修やeラーニングコンテンツの活用により、継続的な教育体制を構築しましょう。
ChatGPTの利用範囲に対するアクセス制御
セキュリティーの強化には、ChatGPTの利用可能範囲を明確に制限するのも効果的です。具体的には、部門別・職位別に利用許可を設定したり、社内ネットワークからのみアクセス可能に制限したりする手段が挙げられます。
また、プロキシサーバーやWebフィルタリングの活用によって、管理者側でアクセス制御を技術的に施せるでしょう。さらに、DLP(Data Loss Prevention)機能を導入し、機密性の高いキーワードの送信・共有を制限すれば、漏洩リスクを低減できます。
ChatGPT自体に詳細な制御機能は存在しないため、Azure OpenAI Serviceなど、IPアドレス制限や監査ログをサポートする外部サービスの利用も検討しましょう。
ChatGPTと連携したセキュリティー対応済みツールを導入
ChatGPTを業務で安全に利用するためには、セキュリティー対策があらかじめ組み込まれた外部連携ツールを使うと良いでしょう。情報漏洩の防止や、社員以外のアクセスを防ぐ認証の仕組みなどが設計されており、企業は自分たちで細かい設定をしなくても、安全性の高い環境を整えられます。
たとえば、特定のネットワーク以外からのアクセスを制限するIPアドレス設定、社員だけが使えるログイン方式(SSO)、従業員の操作内容を記録して可視化できる監査機能などを備えたツールがあります。ツールの機能を利用すれば、社内ルールの順守や不正防止にもつながります。
セキュリティー対策に必要な設定やシステム構築にかかる作業を減らしながら、ChatGPTを安心して導入・活用できる点が大きなメリットです。
API版やChatGPT Enterpriseプランを利用する
企業がセキュリティーを最優先してChatGPTを導入する場合、無料Web版の利用ではなく、OpenAIのAPI版やChatGPT Enterpriseプランを選ぶのがおすすめです。
有料版では、ユーザーの入力データが学習に使われないのが利用規約に明記されており、情報の保持や共有に関する安全性が高められています。特に、ChatGPT Enterpriseは信頼性の高い国際基準(SOC2)に対応しており、会話の内容が暗号化されて守られたり、社員だけがログインできるように設定できたりと、安全対策がしっかりしてます。
さらに、自社の業務に合わせたチャットボットを作れるため、安心して日々の業務にChatGPTを活用できます。
ChatGPT Enterpriseについては以下の記事で詳しく解説していますので、ぜひ参考にしてみてください。

ChatGPTのセキュリティーリスクと対策を理解して安全性を高めよう

本記事では、ChatGPTのセキュリティーリスクとその対策について解説しました。
ChatGPTは便利な反面、入力した情報が学習・再利用されたり、サイバー攻撃に悪用されたりする危険性があります。安全なビジネス活用のためには、適切な対策が欠かせません。
【ChatGPTの安全性を高める対策】
- 社内ガイドラインを策定し、機密情報の入力を禁止する
- API版、Enterpriseプラン、Azure OpenAI Serviceを利用する
- セキュリティーシステム導入やアクセス制限を検討する
セキュリティーリスクを正しく理解し、状況に合わせた対策を講じて、ChatGPTを安全に業務へ活かしましょう。
コメント