• 更新日 : 2026年3月24日

個人・組織利用でGitHub Copilotを学習させない方法は?

PointGitHub Copilotにコードを学習させない設定方法

GitHub Copilotに自身のコードを学習させないためには、アカウント設定からの「オプトアウト」が不可欠です。

  • 個人プランの設定: GitHub公式サイトの「Settings」→「Copilot」から、製品向上のためのデータ利用許可をオフにします。
  • 法人プランの優位性: Business/Enterpriseプランは、標準で学習に利用されない設定となっており、管理者が一括制御可能です。
  • 注意点: 学習をオフにしても、通信上のデータ通過は発生するため、極秘情報やAPIキーの直接入力は避けましょう。

学習を拒否しても、回答精度には影響しません。あくまで自分のデータを将来のモデル改善に提供するかどうかの選択であり、利便性は維持されます。

GitHub Copilotは、エンジニアのコード作成を助ける強力なツールですが、自社の機密コードがAIの学習に使われることを心配する声も少なくありません。ただし、GitHub Copilotの設定を適切に変更することで、自分のコードや入力内容を学習に使わせないようにできます。

この記事では、学習利用の仕組みから、個人・法人それぞれの具体的な設定手順、情報漏洩を防ぐための考え方までをわかりやすく解説します。

広告

※(免責)掲載情報は記事作成日時点のものです。最新の情報は各AIサービスなどの公式サイトを併せてご確認ください。

GitHub Copilotで学習させない方法

GitHub Copilotで学習させない設定にすることは、自分が入力したコードやプロンプトを、AIモデルの精度向上のためのトレーニングデータとして利用することを拒否することを指します。

GitHub Copilotにおける学習とは?

GitHub Copilotにおける学習とは、利用者がエディタに入力したソースコードや、チャット機能で投げかけた質問などのデータを、OpenAI社が提供する基盤モデルの改善に役立てることを指します。

AIは多くのデータを取り込むほど賢くなりますが、その過程で送信されたデータが意図せず再利用される可能性を懸念する利用者が増えています。

関連記事|Copilotとは?ChatGPTとの違いや使い方、ビジネスでの活用例を紹介

学習させない設定で制御できる範囲は?

学習を停止する設定を行うと、送信されたスニペットがGitHub側で保存されたり、将来のモデル構築に使われたりすることを防げます。

ただし、この設定を行っても、コードの補完機能自体はこれまでどおり利用できます。あくまで「自分のデータをAIの成長のために差し出すかどうか」を選べる仕組みだと考えるとわかりやすいでしょう。

学習されることとコード流出は別問題

ここで整理しておきたいのは、学習を許可したからといって、自社のコードがそのまま他のユーザーの画面に表示されるわけではないという点です。AIの学習は、パターンの抽出として行われるため、ソースコードが丸ごと流出するリスクとは性質が異なります。

しかし、機密性の高い情報を扱う企業にとっては、データが外部のサーバーに保存されること自体を避けるべきと判断する場合が多いです。

広告

この記事をお読みの方におすすめのガイド4選

続いてこちらのセクションでは、この記事をお読みの方によく活用いただいている人気の資料・ガイドを簡単に紹介します。すべて無料ですので、ぜひお気軽にご活用ください。

※記事の内容は、この後のセクションでも続きますのでぜひ併せてご覧ください。

AI活用の教科書

AI活用の教科書

経理・人事・経営企画といった企業の基幹業務における具体的なユースケースをご紹介。

さらに、誰もが均質な成果を出せる「プロンプトのテンプレート化」や、安全なガバナンス構築など、個人利用から企業としての本格活用へステップアップするためのノウハウを凝縮しました。

無料ダウンロードはこちら

人事労務担当者向け!Chat GPTの活用アイデア・プロンプトまとめ14選

Chat GPTの活用アイデア・プロンプトまとめ14選

人事労務業務に特化!人事労務・採用担当者がChat GPTをどのように活用できるのか、主なアイデアを14選まとめたガイドです。

プロンプトと出力内容も掲載しており、PDFからコピペで簡単に試すことも可能です。

無料ダウンロードはこちら

経理担当者向け!Chat GPTの活用アイデア・プロンプトまとめ12選

経理担当者向け!Chat GPTの活用アイデア・プロンプトまとめ12選

経理業務に特化!経理担当者がChat GPTをどのように活用できるか、主なアイデアを12選まとめたガイドです。

お手元における保存版としてはもちろん、従業員への印刷・配布用としてもぜひご活用ください。

無料ダウンロードはこちら

法務担当者向け!Chat GPTの活用アイデア・プロンプトまとめ12選

法務担当者向け!Chat GPTの活用アイデア・プロンプトまとめ12選

法務担当者がchat GPTで使えるプロンプトのアイデアをまとめた資料を無料で提供しています。

chat GPT以外の生成AIでも活用できるので、普段利用する生成AIに入力してご活用ください。

無料ダウンロードはこちら

GitHub Copilotの学習の仕組み

GitHub Copilotがどのようにコードを読み取り、何をもとに学習しているのかを理解することで、より適切な設定判断ができるようになります。

GitHub Copilotの学習データは何から作られている?

GitHub Copilotのベースとなっているモデルは、主にGitHub上で公開されているパブリックリポジトリのコードを学習源としています。

これらは世界中の開発者が公開しているデータです。一方で、私たちが日々の業務で書くプライベートなコードについては、デフォルトの設定や契約プランによって扱いが変わります。

パブリックコードと非公開コードの扱い

GitHub Copilotには、パブリックリポジトリにあるコードと完全に一致するコードを提案するかどうかを選択するフィルター機能があります。非公開コードの内容については、基本的には利用者の許可なく勝手に学習に使われることはありませんが、個人向けプランでは初期設定で学習が有効になっている場合があるため注意しましょう。

入力したコードやプロンプトの取り扱い

エディタ上で書いているコードだけでなく、GitHub Copilot Chatに入力した質問や指示もデータとして扱われます。これらはAIが文脈を理解するために一時的にサーバーへ送られます。学習させない設定にしていれば、これらのやり取りもモデルの改善には使われず、一定期間の後に削除される仕組みになっています。

個人利用でGitHub Copilotに学習させない設定方法は?

個人で利用するプランの場合、自分自身で設定画面を開き、データの利用を拒否する操作を行う必要があります。

GitHub Copilot Free / Proでのオプトアウト設定

個人プランを利用している場合、GitHubのウェブサイトにログインし、設定から「Copilot」の項目を確認しましょう。

「Allow GitHub to use my code snippets for product improvements(製品向上のためにコードスニペットの利用を許可する)」というチェックボックスを外すことで、学習を停止できます。

Copilot VSCodeで学習させない設定は?

VSCodeなどのエディタ側で学習させないための直接的なボタンがあるわけではありません。学習の可否は、あくまでGitHubのアカウント側に紐づく設定によって決まります。

ただし、エディタ側では「パブリックコードと一致する提案をブロックする」という設定を有効にすることで、著作権リスクを避けるなどの安全策を講じることが可能です。

GitHub Copilot Chat利用時の注意点

チャット機能を使う際も、アカウント側で学習を拒否していれば、入力したテキストが学習に使われることはありません。しかし、チャットに個人情報や顧客の機密データをそのまま貼り付けるのは避けましょう。設定で学習を止めていても、データが一時的にサーバーを通過することには変わりないため、最低限のモラルを持った利用が求められます。

法人利用でGitHub Copilotに学習させない設定方法は?

企業として導入するBusinessプランやEnterpriseプランでは、管理者が一括して学習させない設定を管理できるため、より強固なセキュリティを保てます。

GitHub Copilot Businessで学習させない設定は?

GitHub Copilot Businessでは、デフォルトで利用者のコードが学習に使われないよう設定されています。個人プランとは異なり、組織の管理者がポリシーを制御するため、社員が誤って学習を許可してしまう心配もありません。このプランを利用すること自体が、企業にとっての大きな安心材料となります。

GitHub Copilot Enterpriseで学習させない設定は?

最上位のEnterpriseプランでも、Businessと同様にコードの学習利用は行われません。さらにEnterpriseでは、組織独自のナレッジベース(自社のコード資産)をAIに参照させる設定などが可能ですが、これも「その組織内だけで使うための参照」であり、外部のOpenAIモデルに学習されることはありません。管理画面からアクセス権限やポリシーを細かく設定しましょう。

組織として判断すべき情報管理ポリシー

ツール側の設定を整えるだけでなく、社内での利用ルールを定めることも大切です。たとえば、「顧客の個人情報は入力しない」「APIキーなどの認証情報は伏せる」といった運用ルールを周知しましょう。設定で学習をオフにすることは、あくまで対策の一つであり、組織全体のリテラシーを高めることが情報の守りをより固くします。

関連資料|人事労務担当者必見! 業務マニュアル見直し10のチェックリスト
関連記事|内部統制とリスクマネジメントの関係は?違いや手順をわかりやすく説明

GitHub Copilotに学習させないことで防げるリスクの限界は?

学習させない設定にすることで多くのリスクを低減できますが、それだけで全ての安全が保証されるわけではない点に留意しましょう。

情報漏洩リスク

学習をオフにすれば、どんな情報を入力しても絶対に安全、と考えるのは少し危険です。学習に使われない設定であっても、通信経路でのトラブルや、入力したデータが一時的にクラウド上に残る可能性はゼロではありません。社外秘の極めて重要なアルゴリズムなどをそのまま入力して良いかどうかは、慎重に判断すべきでしょう。

学習させない設定だけでは防げないリスク

AIが生成したコードにバグが含まれていたり、脆弱性があったりするリスクは、学習の設定とは関係なく発生します。学習を止めていても、AIが提案したコードをそのまま鵜呑みにしてしまうと、セキュリティ上の穴を自ら作ってしまうことになりかねません。生成されたコードは、必ず人間がレビューを行うようにしましょう。

関連記事|内部統制で情報セキュリティ対策に取り組む方法|必要性についても説明

企業として検討すべきルールは?

技術的な設定と並行して、以下のような取り組みを進めることをおすすめします。

  • 利用可能な対象者の範囲を決める
  • 生成されたコードの検収フローを確立する
  • 最新のアップデート情報を定期的にチェックする
  • 万が一の事態が発生した際の報告ルートを明確にする

これらを整えることで、GitHub Copilotの恩恵を受けながら、リスクを適切にコントロールできるようになります。

関連資料|ITガバナンスと全体最適の両立策

GitHub Copilotに学習させない設定でリスクを防ごう

GitHub Copilotの学習利用には、設定次第で制御できる部分と、サービスの前提として理解すべき部分があります。

GitHub Copilotに学習させない設定は、万能なリスク回避策ではなく、自社の情報管理方針や利用目的に応じて選択するものです。個人利用・法人利用それぞれの設定方法と限界を理解することで、過度な不安を避けつつ、GitHub Copilotを適切に活用できます。

法人プランを活用して管理者側で一括制御を行うか、個人で利用する場合はマイページからオプトアウト設定を確実に行いましょう。ツールを賢く使いこなすことで、開発スピードを落とさずに安全な環境を保つことができるのではないでしょうか。


※ 掲載している情報は記事更新時点のものです。

※本サイトは、法律的またはその他のアドバイスの提供を目的としたものではありません。当社は本サイトの記載内容(テンプレートを含む)の正確性、妥当性の確保に努めておりますが、ご利用にあたっては、個別の事情を適宜専門家にご相談いただくなど、ご自身の判断でご利用ください。

関連記事