1. コラム
  2. コラム
  3. ChatGPTにデータ学習させないオプトアウト設定と注意点や対策

ChatGPTにデータ学習させないオプトアウト設定と注意点や対策

ChatGPTは、ユーザーとのチャット履歴やパーソナライズ設定をもとに回答品質を高めていますが、これとは別に、入力内容がLLM(大規模言語モデル)自体の再学習に利用される場合があります。情報漏えいを防ぐためには、入力内容を学習に使用させないオプトアウト設定が不可欠です。ただし、この設定を行ってもリスクが完全にゼロになるわけではないため、生成AIガイドラインの整備や、よりセキュアな利用環境の構築も求められます。

この記事では、ChatGPTにおけるオプトアウトの必要性と具体的な手順、さらに追加で実施すべきセキュリティ対策について解説します。法人向け有料プランやAzure OpenAI Serviceの活用も考慮し、安全な生成AI利用を進めていきましょう。

ChatGPTに入力内容を学習させない「オプトアウト設定」とは?

OpenAI社が提供するChatGPTは、GPT-5などの大規模言語モデルを誰でも利用できるサービスです。業務効率化や意思決定の支援などに役立ちますがユーザーが入力した情報を使って再学習する仕様のため、ビジネスシーンでは情報漏えい対策が必須です。まずはChatGPTのモデル学習の仕組みと、データ共有を拒否するオプトアウト設定の概要を解説します。

ChatGPTのモデル学習(事前学習と再学習)の仕組みと情報漏えいリスク

ChatGPTのLLM(大規模言語モデル)は、Web上の公開情報や第三者から利用許諾された情報に基づく事前学習により開発され、サービスリリース後もユーザーや選任のトレーナーから提供された情報を用いて回答精度の向上などを図っています。ユーザーはモデル改善(再学習)のためのデータをOpenAI社に提供し続けていますが、これは生成AIサービスの提供者としての基本姿勢といえます。

ただし、ユーザーがプロンプトに入力した内容やアップロードしたファイルに機密情報が含まれる場合、その他の入出力の履歴と同様に再学習に利用される恐れがあります。再学習後に他のユーザーがChatGPTを利用する際、回答に自社の機密情報が含まれてしまう可能性は否定できません。

データ共有を拒否するオプトアウトの方法は2種類(特にデメリットなし)

ChatGPTは、入力データをモデルに学習させることを許可するかしないかを、ユーザーが選べる仕様です。無料プランなど個人アカウントの場合は標準で許可する設定ですが、拒否(オプトアウト)することもできます。データ共有からオプトアウトする方法は以下の2種類です。

  • ChatGPTのWebアプリ・モバイルアプリでのオプトアウト設定変更
  • OpenAIプライバシーポータルからのオプトアウト申請

以前はアプリからオプトアウト設定を行うと、サイドバーからスレッドが消え、過去のチャット履歴にユーザーがアクセスできなくなる問題がありました。現在は仕様変更により、履歴を維持したままオプトアウト設定のみを行えます。モデル改善に協力できなくなることを除けば、特にデメリットはありません。

ChatGPTにデータ学習させないオプトアウトの具体的なやり方

ここでは、ChatGPTにおけるオプトアウト設定の具体的な方法を詳しく解説します。ChatGPTの設定画面から簡単にオプトアウトとオプトインを切り替えられるため、確実に設定しておきましょう。プライバシーポータルからリクエストする方法も解説しますが、オプトアウトのように即時性が求められる処理には不向きです。

オプトアウト設定が完了すれば、ビジネス利用時に「一時チャット」に切り替える必要はありません。

ChatGPTの設定画面からオプトアウト設定

ChatGPTの設定画面では、過去のスレッドやチャット履歴を維持したまま、簡単な操作でオプトアウトができます。WebブラウザからChatGPTにサインインしている場合、オプトアウト設定の手順は以下の通りです。

1.プロフィールアイコンをクリック
2.[設定]をクリックし、[データコントロール]を選択
3.[すべての人のためにモデルを改善する]をオフ

この設定変更はアカウント全体に適用されるため、モバイルアプリ版で同じ作業を行う必要はありません。モバイルアプリ版から操作する場合も、サイドバーメニューのプロフィールアイコンから同様の手順で設定ができます。

OpenAIプライバシーポータルからオプトアウト申請

OpenAI社のプライバシーポータルからオプトアウトを申請する手順は以下の通りです。英語表記で意味が分かりにくい場合は、Webブラウザの翻訳機能で日本語に変換するとよいでしょう。

1.OpenAIプライバシーポータル(https://privacy.openai.com/policies)にアクセス
2.[Make a Privacy Request]をクリックするとダイアログが表示されるため、アカウント認証方法(メールアドレスまたは電話番号)を選ぶ
3.リクエスト一覧の[私のコンテンツでトレーニングしないでください](Do not train on my content)をクリックし、ダイアログに従ってメールアドレスを入力
4.OpenAI社から受信したメールの[Log In]をクリックして、プライバシーポータルにログイン
5.表示される注意事項を理解したらチェックを入れ、居住国を選択して[リクエストを送信](Submit Request)をクリック
6.リクエスト受け付けの確認メールが届く

リクエストした処理(オプトアウト)が完了すると、改めて通知されます。実際にデータ共有が停止されるまでの期間は明確ではないため、特段の理由がなければWebアプリやモバイルアプリから設定変更する方法が現実的です。

ChatGPTのオプトアウト設定をする際の注意点

ChatGPTでオプトアウト設定をすると、その後の入力内容をOpenAIモデルの再学習に使われることを拒否できます。ただし、オプトアウト以前の入力内容はすでにモデル改善に利用されています。また、オプトアウト後も機密情報の入力にはリスクが伴います。

オプトアウト以前の入力内容はモデル改善に利用済み

ChatGPTのオプトアウト設定は、あくまで「今後のデータ共有を拒否する」というものです。オプトアウトを設定する前に入力したデータは、OpenAI社のプライバシーポリシーに基づき、モデル改善に利用されています。

過去に個人情報や社外秘データなどの機密情報を入力してしまっている場合、すでにモデル学習に利用されている恐れがあります。OpenAI社は個人情報が回答に含まれないよう技術的な対策を講じていますが、安心はできません。

個人情報が回答に含まれるなどの問題が生じた場合は、プライバシーポータルから削除リクエストを送信するか、サポート窓口へ相談する必要があります。

オプトアウト後も機密情報の入力にはリスクが伴う

オプトアウト後であっても、ChatGPTを通じてユーザーが入力したデータは、OpenAI社が管理するサーバに一定期間保存されます。不正使用や不正提供リスク、法的要件などが理由ですが、個人情報を入力している場合は管理担当者から閲覧可能な状態に置かれます。

また、サイバー攻撃者によるサーバへの不正アクセスやシステムのバグ、内部不正、管理ミスや誤操作による流出も考えられるため、過信は禁物です。

より安全なChatGPT活用のために採用したい対策3選

ChatGPTをより安全に利活用するための基本的対策として、生成AIガイドラインの策定と周知・社内教育が挙げられます。また、ChatGPTの利用環境をアップグレードすることも有効です。法人向け有料プラン「Business」や「Enterprise」、あるいはAzure OpenAI Serviceの利用を検討しましょう。

1.生成AIガイドラインの策定と周知・社内教育

入力データのモデル学習による情報漏えいなどを防止するために、生成AIガイドラインの策定と周知・社内教育は必須です。ChatGPTの利用を個人の裁量に任せず、組織として利用目的や行動指針を定め、安全な生成AI活用を推進しましょう。

ガイドラインには、生成AIの仕組みやリスクの解説に加えて、「機密情報の入力禁止」「オプトアウト設定の必須化」などの基本ルールを明文化します。社内ポータルや研修によって周知・社内教育を徹底し、安全に利活用できる文化を形成しましょう。

ゼロから策定することが難しい場合は、一般社団法人日本ディープラーニング協会(JDLA)が公開しているひな形を活用するのがおすすめです。

(参考: 『資料室|一般社団法人日本ディープラーニング協会(JDLA)』)

2.法人向け有料プランBusinessやEnterpriseを利用する

ChatGPTの個人向けプランには、Free(無料)プラン、Plusプラン、Proプランがあります。また、OpenAI APIを利用して、業務システムや顧客向けシステムにChatGPTの機能を組み込むことも可能です。

ただし、従業員ごとに契約形態が異なると利用状況を管理しにくく、オプトアウト設定の漏れなどが発生する恐れがあります。

組織内ユーザーを効率的かつ安全に管理するには、法人向け有料プランの利用が有効です。Businessプラン(2025年8月にTeamプランから改称)とEnterpriseプランは標準でオプトアウト設定となり、SSOや多要素認証など高度なセキュリティ機能も利用できます。

3.Azure OpenAI Serviceでカスタマイズ環境を構築する

さらに安全なChatGPTの活用環境を求める場合は、Azure OpenAI Serviceの利用がおすすめです。GPT-5などのOpenAIモデルをMicrosoft Azureのセキュアなクラウド環境で利用でき、企業のセキュリティ要件に合わせた詳細なカスタマイズも可能です。

機密情報を含む入出力データは企業のAzureアカウント内で処理され、OpenAI社には送信されません。このため、データ共有やオプトアウトに関する懸念は不要になります。

さらに、RAG(検索拡張生成)機能によって、社内ナレッジを活用したAIエージェントの運用なども実現できます。自社リソースで運用体制を整える必要はありますが、生成AI活用の幅を大きく広げることができます。

安全なChatGPT活用に役立つイッツコム記事3件を紹介

ChatGPTの安全な利活用を推進するには、生成AI特有のリスクと実務で役立つ活用方法を理解することが重要です。また、導入後のありがちな失敗を避けるために、中長期的なリスク管理も求められます。イッツコムは、生成AI活用をテーマとしたコラム記事を多数提供しており、その中には必須知識を分かりやすく学べる内容が揃っています。

ここでは特に重要な3件を紹介します。

生成AI導入前に押さえたい基礎と活用の方向性

生成AIを導入する際は、その仕組みや成果が出やすい業務を正しく理解する必要があります。理解が不十分なまま進めてしまうと、情報漏えいや運用トラブルにつながる恐れがあります。

以下の記事では、生成AIの基本構造から実務での活用シーンまでが解説されており、導入を検討する担当者に向けた、ChatGPTを含むAIのリスクと入門知識がまとめられています。

【関連記事:生成AIとは?簡単に理解できる基本概要と実務で役立つ活用方法】

生成AI活用を定着させる社内実践と成功のヒント

AIツールが現場に定着しない背景には、業務プロセスとの連携が十分に考慮されていないケースが多く見られます。

以下の記事では、業界や業種の課題に合わせた生成AIの多様な活用事例を取り上げています。ChatGPTなどの導入効果を具体的にイメージしやすく、利用目的に合わせた活用法を考える指針になり、ガイドライン策定にも役立ちます。

【関連記事:多様なビジネス領域のAI活用事例21選!自社の成長につなげるヒント】

導入後の失敗を避けるための中長期的なリスク管理

生成AIは利便性が高い一方で、「セキュリティが心配で活用を進められない」という声もあります。また、運用段階では「ChatGPTを継続利用するか」「Azure OpenAI Serviceに切り替えて環境構築するか」など、判断に迷う場面が出てきます。

以下の記事では、AI導入の進め方を整理し、失敗を避けるために重視すべきポイントを解説しています。導入前からリスクの所在を把握し、中長期的な運用計画を立てる際に役立つ内容です。

【関連記事:AI導入のパターンや流れを徹底解説!失敗を避けるためのポイントも】

まとめ

ChatGPTに入力したデータを学習させないためには、オプトアウト設定が不可欠です。設定後であっても、入力データが保持されている期間に何らかの原因で情報漏えいが起こる可能性は残るため、機密情報を入力しない運用を徹底する必要があります。併せて、生成AIガイドラインの策定や社内教育、法人向けプランやAzure OpenAI Serviceの活用など、組織全体でのセキュリティ強化も求められます。

イッツコムは、Chat GPTの安全な利活用に役立つコラムに加え、生成AIについて基本から解説した記事生成AIのそもそも解説や、ビジネスに利用する際の注意点を詳しく解説した記事も配信しています。生成AIの使い方や注意点について、疑問をお持ちの方はイッツコムの他の記事もぜひご一読ください。