• 作成日 : 2025年11月25日

ChatGPTに個人情報を入力するのはNG|リスクや安全対策を解説

ChatGPTは便利な反面、入力内容がサーバーで処理される特性から、個人情報の取り扱いには注意が必要です。運用ミスや外部攻撃による情報漏えい事例も報告されており、利用者側の設定やルール整備が欠かせません。

当記事では、個人情報を入力すべきでない理由、実際に起きた事例、個人が行える安全設定、企業・自治体が導入すべき対策まで分かりやすく解説します。

ChatGPTに個人情報は入力するべきではない

ChatGPTは便利な業務支援ツールですが、個人情報の入力は避けるべきです。モデルの学習対象には使われない設定がとられていますが、通信経路や運用方法、外部要因によって情報が漏えいする可能性はゼロではありません。安全に使うには、リスクを正しく理解した上で入力内容を慎重に判断する姿勢が欠かせません。

仕様由来のリスク

ChatGPTは個人向けサービスではユーザーから送信された情報をモデル改善に利用する一方、ビジネス向けプランではデータを利用しない方針が取られています。しかし、システム上の仕組みとして入力データが一時的にサーバーで処理される点は本質的なリスクとして残ります。完全にローカルで処理されるわけではなく、通信経路を経由してクラウド上で演算が行われるため、万が一の脆弱性が悪用されれば情報が漏えいする可能性があります。

また、ユーザーが設定しているプランやモードによっては、品質向上のために入力内容が保持されるケースもあるため、自身のアカウント設定を誤ると意図せず情報が蓄積される懸念もあります。これらはクラウドサービス全般に共通する構造的リスクであり、仕様そのものに起因する点が重要です。

運用由来のリスク

ツール自体の仕様よりも、実際には運用の不備による情報漏えいのリスクのほうが高いと考えられています。たとえば、機密情報や顧客データをコピー&ペーストでそのまま入力してしまう、アクセス権の整理を行わず複数人で同じアカウントを共有してしまう、端末のログイン管理が甘く履歴が第三者に閲覧されるなどの人的ミスは防ぎきれません。

特に、社内の新人教育が不十分な場合や、利用ルールが明確に定められていない環境では、誤って個人情報を入力してしまうケースが多く報告されています。また、ブラウザのキャッシュや履歴に利用内容が残存することも運用上の注意点です。つまり、安全に使うにはツールそのものだけでなく、利用者のリテラシーやルール整備も不可欠です。

外部要因のリスク

たとえサービス側と利用者側の運用が適切であっても、インターネットを介する限り外部要因のリスクは避けられません。代表的なものとして、フィッシングサイトへの誘導、偽のAIサービスを装ったコピーサイト、マルウェア感染による入力情報の盗み取りなどがあります。特に近年は、ChatGPTを名乗る偽アプリや拡張機能による情報窃取の被害が世界的に確認されており、公式以外のサービスを利用すること自体が大きな脅威になります。

また、公共Wi-Fiを使ってやり取りを行う場合、通信が傍受される危険性も否定できません。さらに、利用している組織がサイバー攻撃を受けた際、ブラウザや端末に保存された情報が突破口になる可能性もあります。外部要因は完全に排除できないため、個人情報の入力を控える判断が最も安全性の高い利用方法と言えます。

事例で学ぶChatGPTの個人情報漏えいリスクの実態

ChatGPTには高い利便性がある一方、入力内容が情報漏えいにつながったと報告されている事例もあります。多くはシステムの不具合より、企業側の誤入力や利用ルール不足によるヒューマンエラーが原因です。実際の事例を把握することで、どのような場面でリスクが生じるのかを理解し、安全な利用につなげられます。

ChatGPTの個人情報漏えい事例

最も広く知られている事例の1つが、2023年3月に発生したOpenAI側のバグによる一時的な情報露出です。この不具合により、一部の利用者が「他ユーザーの会話タイトル」および「一部のサブスクリプション情報」を閲覧できる状態になりました。内容にはクレジットカードの下4桁や有効期限に加え、氏名やメールアドレス、請求先住所などが含まれる可能性があったと報告されており、外部ユーザーが閲覧できた点は重大と評価されました。

OpenAIはこの問題を修正し、原因をオープンソースのRedisライブラリの不具合と説明しています。こうした事例は頻発しているわけではありませんが、クラウドサービスを介する以上、技術的な脆弱性がゼロにはならないことを示す例として重要です。利用者が自衛策として個人情報の入力を避けるべき理由にも直結しています。

企業の誤入力による情報漏えい事例

近年報告されている情報漏えい事例には、システム側の問題より企業内の利用ミスが原因とされるものもあります。代表的なものとして、海外の大手企業がソースコードや内部仕様書を誤ってChatGPTに入力し、機密情報が外部サービスへ送信されたとの報告があります。

また、日本国内でも、社員が顧客情報や社内文章をそのままChatGPTに貼り付けて送信し、外部送信と判断された重大インシデントの報告があります。これらはChatGPTの仕様ではなく、利用者の運用ミスによって生じたリスクであり、多くの企業が利用ポリシーの制定や教育体制の強化を進める契機となりました。つまり、ツール自体の安全性だけでなく、利用者側のリテラシー不足が最も大きな漏えい要因となる点を理解することが重要です。

個人が今すぐできる安全な設定

ChatGPTを安全に使うには、「入力内容を減らす」だけでなく、アカウント側の設定も整えることが大切です。特に、チャット履歴と学習の設定、学習へのオプトアウト、二段階認証の3点を押さえておくと、個人情報の漏えいリスクを実務レベルで減らせます。ここでは、個人がすぐに実行できる具体的な手順を整理します。

チャット履歴と学習の無効化

まず確認したいのが「チャット履歴」と「モデル学習」に関する設定です。ChatGPTにはデータコントロール機能があり、履歴を残すかどうか、会話内容をモデルの学習に利用するかどうかをユーザー側で調整できます。通常は画面左下のアイコン→設定→データコントロールに進むと、「すべての人のためにモデルを改善する」というモデル改善に関するトグルが表示されるため、学習利用を避けたい場合はここをオフにします。

なお、従来の「チャット履歴&学習」という一体の項目はアップデートにより名称や配置が変わり、モデル学習の可否は「データコントロール」、メモリや履歴の参照設定は「パーソナライズ」内の項目から行う形に分かれています。

また、「パーソナライズ」内の「保存されたメモリを参照する」「チャット履歴を参照する」「記録履歴を参照する」をオフにすれば、ChatGPTがこれまでのチャット内容に基づいて出力内容をパーソナライズしないようにできます。

  • 保存されたメモリを参照する
  • チャット履歴を参照する
  • 記録履歴を参照する

オプトアウトの申請

さらにリスクを下げたい場合は、UI設定に加えて、OpenAIへ正式に「学習へのオプトアウト」を申請する方法があります。通常の「モデル改善への利用をオフ」にするだけでも学習利用は停止されますが、確実性を求める場合は、OpenAIのプライバシーポータルから「Do not train on my content(私のコンテンツを学習に利用しない)」というリクエストを送信できます。

オプトアウトが受理されると、その後の新しい会話はモデル改善に利用されません。ただし、サービス運営や不正利用監視のため、一定期間データが保持される点には注意が必要です。なお、BusinessやEnterpriseのプランでは、そもそもビジネスデータが学習に使われない設計が採用されています。

認証アプリ(ワンタイムコード)の有効化

アカウント乗っ取りを防ぐためには、多要素認証(MFA)の有効化が欠かせません。パスワードだけでログインしている状態では、流出した瞬間にアカウントが不正アクセスされる恐れがあります。MFAを設定すると、ログイン時にワンタイムコードの入力が必要となり、パスワードが漏えいしても第三者がログインしにくくなります。

設定は左下のアイコン→設定→セキュリティ→認証アプリを有効化しましょう。認証アプリ(Google Authenticatorなど)でQRコードを読み取るだけで完了します。あわせて、発行されるリカバリーコードを安全に保管しておくと、端末紛失時にも復旧が容易です。不審なログイン通知が届いた際は、パスワード変更とMFAの見直しを同時に行いましょう。

企業・自治体がChatGPTを安全に活用する方法

ChatGPTを業務で安全に活用するには、契約プラン・入力ルール・権限管理・監査体制の整備が不可欠です。個人利用と異なり、組織では情報漏えいリスクを抑えるための仕組みづくりが求められます。

企業向けプランへの変更

企業・自治体が業務でChatGPTを利用する場合、まず検討すべきは企業向けプランへの移行です。BusinessやEnterpriseでは、入力されたデータがモデル学習に利用されない設計が標準となっており、個人・無料プランと比べて情報管理の安全性が大幅に高まります。

また、SAMLによるシングルサインオン(SSO)、高度なアクセス制御、管理者ダッシュボードなど、組織運用に必要なセキュリティ機能が充実しています。特に自治体や大企業では、監査要件を満たすために企業向けプランを選択するケースが多くあります。

入力ルールと匿名化ルールの策定

組織でChatGPTを使用する際は、従業員向けに「入力してよい情報」と「入力してはいけない情報」を明確に定義したルールを整備することが重要です。特に、個人情報、機密文書、顧客データ、内部の固有名詞などは原則入力禁止とし、どうしても試験的に利用する場合は匿名化や情報の再構成を行うガイドラインを用意します。

文章の一部を置き換える、表現を抽象化するなどの匿名化手順を社内標準として文書化することで、担当者ごとの判断のバラつきを防止できます。これにより、誤入力による情報漏えいリスクを実務レベルで大きく減らせます。

アカウント・権限管理の標準化

組織での利用では、アカウント管理の標準化も不可欠です。管理者がユーザーを一元的に登録し、部署ごとに権限を付与する仕組みを整えると、退職者のアカウント放置や権限過多による情報流出リスクを防げます。

企業向けプランではSSOが利用でき、従業員が個人アカウントでログインしてしまう事態を避けられる点もメリットです。また、社内の権限区分に合わせて閲覧・編集範囲を制限し、アクセスログを管理者が定期的にチェックする運用を組み合わせれば、セキュリティ面のコントロールがより確実に行えます。

監査ログとDLPの導入

企業規模が大きいほど重要になるのが、監査ログとDLP(Data Loss Prevention)の実装です。企業向けプランでは、ユーザーごとの操作ログや利用状況を管理ダッシュボードで確認でき、不審なアクセスや大量コピーなどの異常行動を早期に検知できます。また、外部サービスとの併用でDLPを適用すれば、機密情報が入力される前に検出してブロックすることも可能です。

これにより、人為的ミスだけでなく悪意ある内部不正への対策も強化され、組織としてのガバナンスを維持しやすくなります。自治体や金融機関など厳格な情報管理が求められる組織では、導入が強く推奨される仕組みと言えます。

ChatGPTを安全に使うためのポイントを押さえよう

ChatGPTを安全に活用するには、個人情報を入力しない姿勢が重要です。クラウド処理や運用ミス、外部攻撃など複数のリスクがあるため、履歴・学習設定の無効化、オプトアウト、MFA設定など基本対策を徹底しましょう。

企業や自治体では、BusinessやEnterpriseプランの利用、入力禁止ルールの整備、アカウント管理、監査ログやDLP導入を組み合わせることで、漏えいを防ぎつつ業務効率化を実現できます。


※ 掲載している情報は記事更新時点のものです。

※本サイトは、法律的またはその他のアドバイスの提供を目的としたものではありません。当社は本サイトの記載内容(テンプレートを含む)の正確性、妥当性の確保に努めておりますが、ご利用にあたっては、個別の事情を適宜専門家にご相談いただくなど、ご自身の判断でご利用ください。

関連記事