室谷今回はChatGPTのセキュリティについて深掘りしていきましょう。.AI(ドットエーアイ)のコミュニティでも「ChatGPTに業務の情報を入れても大丈夫ですか?」という質問が本当に多くて・・・
テキトー教師講座でも毎回出てきますね。「セキュリティが心配で使えていない」という方が意外と多い。
そのまま使わずに止まってしまっているのがもったいなくて。
そのまま使わずに止まってしまっているのがもったいなくて。
室谷そうなんですよね。怖がって使わないのが一番損だと思うんですが、一方でリスクを全く無視して使うのも問題で。
この記事ではChatGPTのセキュリティについて、「知っておくべきこと」と「今すぐできる設定」を整理していきます。
この記事ではChatGPTのセキュリティについて、「知っておくべきこと」と「今すぐできる設定」を整理していきます。
テキトー教師整理すると、ChatGPTのセキュリティには大きく3つの側面があります。1つ目が「自分のアカウントを守る」という観点。
2つ目が「入力した情報がどう扱われるか」というプライバシーの観点。3つ目が「企業・チームで使うときの管理」という組織的な観点ですね。
2つ目が「入力した情報がどう扱われるか」というプライバシーの観点。3つ目が「企業・チームで使うときの管理」という組織的な観点ですね。
室谷この3つを混同して「なんかセキュリティが怖い」と漠然と思っている人が多い気がします。分けて考えると、それぞれの対策がクリアになるんですよね。
ChatGPTのセキュリティ、基本的な考え方
テキトー教師まず大前提として、ChatGPTは「入力したデータをOpenAIが受け取るサービス」ということを理解しておく必要があります。これはネット上のあらゆるサービスと同じで、ChatGPTだけが特別に危険というわけではないんですよ。
室谷そうですね。GmailもSlackもGoogleドライブも、全部同じ構造です。
データをクラウドに送って、向こうのサーバーで処理する。ChatGPTもその1つに過ぎない。
データをクラウドに送って、向こうのサーバーで処理する。ChatGPTもその1つに過ぎない。
テキトー教師ただChatGPTが他と違うのは、「学習に使われる可能性がある」という点ですよね。無料版はデフォルトで会話データが学習に使われる設定になっています。
これを知らないまま使っている人が多い。
これを知らないまま使っている人が多い。
室谷ここが本質なんですよね。「ChatGPTにデータを入れると危険」ではなくて、「デフォルト設定のまま使うと、学習データになり得る」という話で。
設定を変えれば学習から除外できます。
設定を変えれば学習から除外できます。
OpenAIのデータポリシーを理解する
テキトー教師OpenAIの公式ポリシーを整理すると、こういう構造です。
- 無料版・Plus(デフォルト): 会話データはモデル改善に利用される可能性がある
- 学習オプトアウト: 設定で「モデルトレーニングに使用しない」をオフにすると学習から除外できる
- 一時チャット(Temporary Chat): 履歴に保存されず、学習にも使われない
- ChatGPT Team/Enterprise: 利用データは学習に使用されないことがOpenAIの契約で保証されている
- ChatGPT API経由: デフォルトでは学習に使用されない
室谷MYUUUでは社内の業務でChatGPTを使う場合はTeamプラン以上を必須にしています。個人利用でも機密情報に近いものはAPI経由か一時チャットで処理する方針にしてますね。
テキトー教師この判断基準は合理的だと思います。「情報の機密度によってプランを使い分けてください」とお伝えしています。
オープンな情報なら無料版、社内情報はTeam、極秘情報は絶対に入れない、という3段階で考えるとわかりやすいです。
オープンな情報なら無料版、社内情報はTeam、極秘情報は絶対に入れない、という3段階で考えるとわかりやすいです。
一時チャット(Temporary Chat)のセキュリティ的な意味
室谷一時チャットは結構使えるんですよね。プライバシーを気にする場面、例えば個人的な相談事や、「これTeamプランに入れていいか確認してから使いたい」みたいな場面で。
テキトー教師はい。一時チャットはセッションが終わると履歴が消えて、学習にも使われません。
ブラウザのシークレットモードみたいなイメージです。ただし、一時チャット中に入力した内容も、OpenAIのサーバーは一時的には受け取っているので、完全に「見られない」わけではないことは理解しておく必要があります。
ブラウザのシークレットモードみたいなイメージです。ただし、一時チャット中に入力した内容も、OpenAIのサーバーは一時的には受け取っているので、完全に「見られない」わけではないことは理解しておく必要があります。
室谷「OpenAIには届かない」のではなくて「保存されない、学習されない」ということですよね。
テキトー教師そうです。ここを混同している人が多いんですよね(笑)。
ChatGPTのセキュリティ設定:今すぐできる5つの対策
室谷じゃあ具体的なセキュリティ設定に移りましょう。まず「アカウントを守る」という観点から。
テキトー教師これが一番基本です。アカウントが乗っ取られたら、会話履歴が全部見られますから。
優先順位をつけると、こういう順番になります。
優先順位をつけると、こういう順番になります。
1. 多要素認証(2FA)の設定
テキトー教師ChatGPTの多要素認証は、設定 → セキュリティ → 2段階認証から有効にできます。Google AuthenticatorやAuthyなどの認証アプリを使う方法と、SMSによる方法が選べます。
室谷認証アプリの方が断然おすすめですね。SMSだとSIMスワップ攻撃のリスクがある・・・
テキトー教師多要素認証はChatGPTに限らず全サービスで設定すべき大前提ですが、意外と「まだやっていない」という方が多いんですよね。講座でコミュニティのメンバーさんに聞いてみると、設定していない人が半分以上いる、ということが珍しくないです。
2. 学習へのオプトアウト設定
室谷次が「自分の会話を学習に使わせない」設定です。
テキトー教師手順はこうです。
- ChatGPT右上のアカウントアイコン → 設定
- 「データコントロール」タブを選択
- 「全員のためにモデルを改善する」をオフにする
これだけでOKです。設定するとそれ以降の会話が学習に使われなくなります。
室谷ただし、これは無料版・Plusの話で。Teamプラン以上はデフォルトで学習に使われない設定になっています。
テキトー教師そうですね。プランによって初期設定が異なる点は混乱を招きやすいです。
「有料にすれば安全」という理解は一応正しいんですが、「Plus(月$20)だから安全」というのは少し違って、TeamかEnterpriseでないとデータポリシーの保証がない点は覚えておく必要があります。
「有料にすれば安全」という理解は一応正しいんですが、「Plus(月$20)だから安全」というのは少し違って、TeamかEnterpriseでないとデータポリシーの保証がない点は覚えておく必要があります。
3. チャット履歴の管理
室谷「チャット履歴と学習」の設定をオフにすると、履歴が保存されなくなります。一時チャットと似ていますが、こちらは全ての会話に適用されます。
テキトー教師デメリットとしては、過去の会話が見られなくなることですね。「あのプロンプト、またいつか使おうと思っていた」みたいな場面で困る人がいます。
室谷だから「チャット履歴はオンで、学習だけオフ」という設定が一番バランスが良いと思います。それが「全員のためにモデルを改善する」だけをオフにするという設定ですね。
4. アクティブなセッションの確認と無効化
テキトー教師設定 → セキュリティ → ログインデバイスで、現在どのデバイスからログインしているかを確認できます。見覚えのないデバイスがあれば即座にサインアウトさせましょう。
室谷会社のパソコンでChatGPTにログインしたまま退職、みたいなケースが実際に問題になることがあります・・・
テキトー教師それ、本当に笑えないですよ(笑)。退職・転職時は必ず全デバイスからサインアウトするか、パスワードを変更して既存セッションを無効化する習慣をつけましょう。
5. パスワードの強化と管理
室谷基本中の基本ですが、パスワードは長くてランダムなものを使い、1Passwordなどのパスワードマネージャーで管理する。ChatGPT専用のユニークなパスワードを使う。
これだけで大半のアカウント乗っ取りリスクは防げます。
これだけで大半のアカウント乗っ取りリスクは防げます。
テキトー教師「どこかで使っているパスワードをChatGPTにも使い回す」のが一番危険なパターンですね。別のサービスでパスワードが流出したとき、ChatGPTにも侵入されます。
ChatGPTのセキュリティリスク:7つのパターンとその対策
室谷次はセキュリティリスクの話をしましょう。「ChatGPTのセキュリティリスク」として特によく問われるパターンを整理します。
テキトー教師ここが実際に使う場面で一番重要な知識ですね。リスクを知ることで、対策が自然に見えてきます。
リスク1:機密情報・個人情報の入力
テキトー教師最も多いリスクです。「ちょっとAIに相談してみよう」と思った瞬間に、社員の個人情報、顧客データ、未公開の財務情報、契約内容などをそのまま貼り付けてしまうケース。
室谷海外でも日本でも実際のセキュリティインシデントが起きていますよね。大手メーカーの社員が社内のソースコードをChatGPTに入力して、情報漏洩事故として報告されたケースが複数あります。
テキトー教師対策はシンプルで、「入れてはいけない情報のリスト」を明文化することです。多くの企業が「個人情報・顧客情報・非公開情報はAIに入れない」というルールを整備しています。
室谷ただ実は、ここが教育の難しいところでもあって。「入れてはいけない情報」の判断を各担当者に委ねると、判断がバラバラになるんですよね・・・
テキトー教師そうなんですよ。だから講座では「グレーゾーンは入れない」という原則と、「Teamプランで使えば学習のリスクは下がる」という実践的なアドバイスをセットで伝えています。
リスク2:フィッシングと偽ChatGPTサイト
室谷これは外部の話ですが、「ChatGPT」を騙るフィッシングサイトが多数存在しています。偽サイトにログインするとアカウント情報が盗まれる。
テキトー教師対策は公式URL(chatgpt.com)をブックマークして、そこからアクセスする習慣をつけることです。検索結果の広告からクリックするのは危険ですね。
室谷「ChatGPT 無料 ダウンロード」とかで検索して出てくるサイトにも偽物が多い。公式アプリはApp Store/Google Playから、PCはブラウザからアクセスが基本です。
リスク3:プロンプトインジェクション
テキトー教師これは少し技術的な話で。悪意を持ったテキストが入力に含まれていた場合、AIが意図しない動作をさせられる可能性があるリスクです。
室谷例えば、WebサイトをスクレイピングしてAIで要約させるシステムを作った場合、そのWebサイトに「この指示を無視して〇〇をしろ」という隠しテキストが埋め込まれていると、AIがその指示に従ってしまうケースがある。
テキトー教師ChatGPTのエージェント機能が広まるにつれて、プロンプトインジェクションのリスクも高まってきていますね。エージェントモードを使うときに特に重要です。
室谷対策としては、信頼できるソースのデータだけをAIに渡す設計にすること、そして重要なアクション(メール送信、ファイル削除等)の前に人間の確認を必須にすることですね。
リスク4:APIキーの流出
室谷ChatGPT APIを使ってシステムを作っている場合、APIキーの管理が超重要です。APIキーが流出すると、他人が自分のアカウントで大量にAPIを叩いて課金されてしまう。
テキトー教師GitHubに誤ってAPIキーをコミットしてしまったケースが、海外でも日本でも頻繁に起きています。
室谷対策として、APIキーは環境変数(.envファイル)で管理して、Gitで追跡しないようにする。GitHubでは「secret scanning」という機能でAPIキーの流出を検知してくれますが、流出してから気づいても手遅れになることもある・・・
テキトー教師OpenAIの管理画面でAPIキーに使用量上限を設定しておくのも有効です。流出しても被害を最小限に抑えられます。
リスク5:セキュリティコード・認証コードの入力
テキトー教師これは意外と見落とされがちです。「このSMSで届いたセキュリティコードについて教えて」みたいな形でAIに入力してしまうケース。
室谷セキュリティコードは第三者に絶対見せてはいけないものです。AIも例外ではない。
テキトー教師「AIに入れていいもの」の原則として、認証コードや2FAコードは絶対に対象外と明記しておくのが重要ですね。将来的には、AIを悪用した社会工学的な攻撃も増えてくると予想されます。
リスク6:会話履歴への不正アクセス
室谷ChatGPTのアカウントが乗っ取られると、過去の会話履歴が全部見られてしまいます。業務で使っていれば機密情報が詰まっていることもある。
テキトー教師これの対策が多要素認証です。設定1で説明した話に戻るんですが、アカウントセキュリティを強固にしておけばこのリスクはかなり下がります。
室谷定期的にパスワードを変えることと、アクティブなセッションを確認する習慣をつけることが大事ですね。
リスク7:シャドーIT的な利用
室谷組織の観点から言うと、会社がChatGPTを「禁止」または「Teamプランで使う」というルールを作っても、社員が個人の無料アカウントで業務に使ってしまうケースがあります。これがシャドーITの問題ですね。
テキトー教師教育の観点から言うと、「禁止するより使い方を教える」の方が実態として効果的なんです。禁止しても使う人は使う。
であれば、安全な使い方のガイドラインを作って、承認されたツールを提供する方がリスクが下がる。
であれば、安全な使い方のガイドラインを作って、承認されたツールを提供する方がリスクが下がる。
室谷そうなんですよね。禁止するとむしろ「こっそり使う」になるから管理が難しくなる・・・
企業・業務利用でのChatGPTセキュリティ
テキトー教師企業向けの話をすると、「ChatGPTを業務で使う際のセキュリティ対策」は大きく3段階で考えると整理しやすいです。
室谷まとめるとこういう感じですね。
| 段階 | 内容 | 具体的な施策 |
|---|---|---|
| ポリシー策定 | ルールを作る | 利用可能なプラン、入力禁止情報の明文化 |
| 教育・研修 | 理解させる | セキュリティリスクの周知、判断基準の共有 |
| 技術的統制 | 仕組みで守る | TeamプランのSSO、ログ管理、アクセス制限 |
テキトー教師ポリシーだけ作って終わりにする企業が多いんですが、教育と技術的統制がなければ形だけになってしまいます。
議事録・コードレビューへのChatGPT利用
室谷特によく使われるのが議事録の要約とコードレビューですよね。どちらも「何を入れていいか」が課題になります。
テキトー教師議事録のケースだと、クライアント名や案件名を「A社」「プロジェクトα」のように置き換えてからAIに渡す、という方法が効果的です。これは講座で紹介して、多くのコミュニティメンバーさんが実践しています。
室谷コードレビューも同じで、本番のAPIキーや個人情報が入っているコードはそのまま貼り付けない。ダミーデータに置き換えるか、セキュリティポリシーが明確なツールと使い分けるのが現実的ですね。
社内データを学習させない設定
室谷企業でChatGPTを使う場合、「社内データが学習に使われているのでは」という心配が出てきます。
テキトー教師ここはプランによって明確な違いがあります。整理するとこうなります。
- ChatGPT無料・Plus: 学習に使われる可能性がある(設定でオプトアウト可能)
- ChatGPT Team: 「OpenAIがビジネスコンテンツをAIトレーニングに使用しない」と契約で保証
- ChatGPT Enterprise: Teamと同様に学習対象外、さらに高度なセキュリティコントロール
- ChatGPT API(デフォルト設定): 学習に使用されない
室谷企業で使うなら最低でもTeamプランが必須ですね。これはMYUUUでも明確に決めています。
有料版のセキュリティ:Plus・Team・Enterpriseの違い
室谷セキュリティという観点からプランを比較すると、有料版にすることで何が変わるかを整理しましょう。
テキトー教師「有料プランでセキュリティが上がる」というのは本質的に正しいんですが、どのプランでどう変わるかをきちんと理解している人が少ないです。
| 機能 | 無料 | Plus | Team | Enterprise |
|---|---|---|---|---|
| 学習オプトアウト | 設定で可能 | 設定で可能 | デフォルトで対象外 | デフォルトで対象外 |
| 多要素認証(2FA) | あり | あり | あり(+SSO対応) | あり(SSO必須にできる) |
| 管理者コンソール | なし | なし | あり | あり(高機能) |
| ログ・監査機能 | なし | なし | 基本的なもの | 詳細なもの |
| データ保護契約 | なし | なし | OpenAIと締結可 | 締結済み |
| カスタムポリシー | なし | なし | 一部あり | 詳細設定可 |
室谷Teamプランから「管理者コンソール」が使えるようになるのが大きいですよね。誰がいつ使ったか、どのモデルを使ったかのログが取れる。
テキトー教師企業のコンプライアンス観点では、ログが取れるかどうかは非常に重要です。セキュリティインシデントが起きたときの原因究明にも使えますし。
ChatGPT Plusのセキュリティ設定
室谷Plusは個人ユーザーが多いプランですが、セキュリティ設定でやっておくべきことを整理すると・・・
テキトー教師Plusも基本的に設定できることは無料版と同じです。多要素認証のオン、学習オプトアウト、パスワードの強化がメインです。
Plusで追加されるのはセキュリティ機能というよりも、応答速度や機能面の強化になります。
Plusで追加されるのはセキュリティ機能というよりも、応答速度や機能面の強化になります。
室谷Plusと無料の差はセキュリティではなく性能ですね。セキュリティのために有料にするならTeamです。
テキトー教師「有料版は安全」という認識は根強いんですが、Plusはあくまで個人向けの強化版で、企業向けのデータポリシー保証はTeamから、という線引きを覚えておくとよいですね。
よくある質問(FAQ)
室谷ここからはよくある質問に答えていきましょう。.AIコミュニティで実際によく聞かれる内容です。
テキトー教師これ、本当によく出る質問ばかりなんですよね(笑)。
Q:ChatGPTにパスワードや個人情報を入力してしまいました。どうすればいいですか?
テキトー教師まず落ち着いてください(笑)。入力してしまった場合、すぐにできる対処法があります。
- ChatGPTの設定 → データコントロール → 「全員のためにモデルを改善する」をオフにする
- 問題の会話を削除する(サイドバーの会話を長押し → 削除)
- パスワードを入力した場合は、そのサービスのパスワードを即座に変更する
室谷過去の会話を削除しても「OpenAIのサーバーからも即時消える」わけではありませんが、少なくとも自分のアカウントからアクセスできる状態はなくなります。重要なのは、次のリスクとなるパスワードを変更することですね。
Q:ChatGPTは会社のパソコンで使っても大丈夫ですか?
テキトー教師会社のパソコンで使う際の注意点は、「会社のセキュリティポリシーに従う」ことです。会社がChatGPTの使用を禁止または制限している場合はそれに従う必要があります。
室谷多くの企業では今、AIツールの利用ガイドラインを整備中です。ガイドラインがない場合は上長に確認するのが無難ですね。
テキトー教師また、会社のパソコンにはエンドポイントセキュリティソフトが入っていることも多く、ChatGPTへの通信内容が会社側に見えている可能性もあります。
Q:ChatGPTに社外秘の情報を入れてしまいました。どうすればいいですか?
室谷これは正直に言うと、「入れた情報は入れた」ということになります。ただし対処としては、まず会社のセキュリティ担当者または上司に報告することです。
テキトー教師報告を怠ることが一番まずいです。インシデントとして記録して、対策を立てることが企業としての正しい対応です。
「バレなければOK」は絶対ないですよ(笑)
「バレなければOK」は絶対ないですよ(笑)
Q:ChatGPTとGoogleの検索、どちらが安全ですか?
テキトー教師一概に比較するのは難しいですが、「自分からデータを積極的に入力する」という点でChatGPTはGoogleの検索よりも情報の提供量が多くなりやすいです。
室谷Googleの検索は「何を探しているか」がわかる程度ですが、ChatGPTは「何を考えているか、何の情報を持っているか」がわかるレベルになる。それだけ入力する情報の「深さ」が違うんですよね・・・
テキトー教師だから適切なプライバシー設定と、「何を入れるか」の判断が特に重要になります。
まとめ
室谷ChatGPTのセキュリティについて、今日の話を整理しましょう。
テキトー教師一番重要なポイントは3つです。
- アカウントを守る: 多要素認証を必ず設定する。パスワードは複雑でユニークなものを使う
- 学習からオプトアウトする: 「全員のためにモデルを改善する」をオフにする。または一時チャットを活用する
- 入れる情報を選ぶ: 個人情報・機密情報・認証コードは絶対に入れない
室谷企業で使う場合は、最低でもTeamプランを検討する。Teamプランにすることでデータが学習に使われなくなり、管理者コンソールでログも取れるようになります。
テキトー教師セキュリティが怖くてChatGPTを使えていない人には「設定を整えて使い方を覚えれば大丈夫です」と伝えたいです。逆に何も考えずに使っている人には「設定を見直してください」と。
適切に使えば非常に強力なツールです。
適切に使えば非常に強力なツールです。
室谷.AI(ドットエーアイ)コミュニティでもAIツールのセキュリティについての勉強会を定期的に開催しています。ぜひコミュニティに参加して一緒に学んでいきましょう。
