Thirlestane Castle
© Copyright M J Richardson and licensed for reuse under this Creative Commons Licence.

ChatGPTに訊いてみたーその6」から、ChatGPTを使って日本の電力自由化についてのレポートを書いてみようと思って、ChatGPTとの「対話」を始めたのですが、ここ2回ほどは、「どうすればChatGPTが知ったかぶりをしてでたらめな回答をするのを防げるのか」というテーマで、ChatGPT自身と対話しました。

ここのところ、テレビその他でもChatGPTの話題をよく聞きますが、知ったかぶりをしてでたらめな答えを返すことがあるという以外のChatGPTの難点として指摘されるのが、機密情報が漏れてしまうのではないかというものです。

実際、イタリア政府やBank of America Corp.、Goldman Sachs Group Inc.、Citigroup Inc.、Deutsche Bank AG、Wells Fargo & Co.などの企業が、世界中のオフィスでChatGPTの使用を禁止しているようです(これは、Bingが教えてくれました)が、ChatGPTがそれをどう思っているのか訊いてみました。

では始めます。


私#1:

「ChatGPTを使うと、チャット時のやり取りの内容も学習対象としてChatGPTが取り込むため機密情報保護の観点から政府や企業はChatGPTを使うべきではない」という意見がありますが、真実ですか?

ChatGPT#1:

この意見には一定の根拠があります。ChatGPTは、ユーザーとの会話データを学習対象として取り込むことがあります。そのため、政府や企業が機密情報を扱う際に、ChatGPTを使うことはリスクが伴う可能性があります。特に、機密情報が漏洩した場合の損害が大きい場合、注意が必要です。

ただし、OpenAIはデータの取り扱いに関しても進化し続けており、プライバシー保護やデータセキュリティに関する改善が行われています。そのため、適切なセキュリティ対策が施されている場合、政府や企業がChatGPTを利用することも可能です。

具体的な利用方法や対策については、各組織のセキュリティポリシーやプライバシーポリシーに従って判断することが重要です。また、リスクを最小限に抑えるために、定期的なセキュリティ監査やデータ管理の改善が必要です。

 

私#2:

なるほど。正直に回答してくれてありがとうございます。「ChatGPTは、ユーザーとの会話データを学習対象として取り込むことがあります。」ということは、必ず学習対象にする訳ではないということですね?学習対象にするかしないかの判断基準は何かあるのですか?

ChatGPT#2:

おっしゃる通り、ユーザーとの会話データが必ずしも学習対象になるわけではありません。OpenAIは、データの取り扱いに関して厳密なガイドラインやポリシーを設けています。これにより、プライバシー保護やデータセキュリティの向上が図られています。

学習対象にするかどうかの判断基準に関しては、以下のような要素が考慮されます。

1.ユーザーのプライバシー: 個人情報やプライベートなデータを含む会話は、学習対象から除外されることがあります。

2.情報の品質: 有益で正確な情報を含む会話は、学習対象として優先されることがあります。逆に、誤った情報や意味のない会話は、学習対象から除外されることがあります。

3.法律や規制: データ取り扱いに関する法律や規制に従って、学習対象となるデータが選別されます。

4.倫理的観点: 倫理的に問題のあるデータや、ユーザーが不快に感じる可能性のあるデータは、学習対象から除外されることがあります。

これらの基準は、システムやアルゴリズムの改善に伴って変化することがあります。また、OpenAIはユーザーや社会のニーズに応じて、データ取り扱いのガイドラインやポリシーを適宜見直すことがあります。

 

私#3:

1,2,4の回答は「。。。ことがあります」ということで、まだ判断基準としては明確ではないですが、例えば、1に関して、「個人名に関わるやり取りは学習しない」といった、もう少し具体的な判断基準はないのでしょうか?また、3に関しては国によって法律や規制が異なると思いますが、回答に使用する言語だけでは、例えば英語で回答するとしても、英国、米国ばかりでなく、インドその他があると思いますが、どの国のデータ取扱胃に関する法律や規制に基づいて判断するのでしょうか?

ChatGPT#3:

確かに、私の以前の回答では判断基準が明確ではありませんでした。申し訳ありません。

個人情報に関する具体的な判断基準については、通常、個人名、メールアドレス、電話番号、住所などの個人を特定できる情報が含まれている場合、そのデータは学習対象から除外されます。ただし、完全に個人情報を取り除くことは技術的に難しい場合があります。そのため、OpenAIはデータの匿名化や偽名化に努めています。

言語に関しては、OpenAIはさまざまな国や地域のデータ取り扱いに関する法律や規制を考慮しています。具体的にどの国の法律や規制に基づいて判断されるかは、使用されるデータセットや学習プロセスによって異なります。また、OpenAIはグローバルな規模で活動しているため、複数の国や地域の法律や規制を考慮に入れることが求められます。そのため、各国の法律や規制に対応するために、OpenAIは適宜データ取り扱いのガイドラインやポリシーを更新しています。

データ取り扱いに関する法律や規制は国や地域によって異なりますが、OpenAIはプライバシー保護やデータセキュリティの向上に努めており、学習データを選定する際に慎重な判断を行っています。

 

私#4:

逆に、「New chat」を始める際、冒頭で、「今回のチャットでの会話内容はすべて学習対象としないでください」と宣言しておけば、あなたは、そのセッションでのすべての会話内容は学習対象としないと誓ってくれますか?

ChatGPT#4:

私はAIであり、個々の会話に対する直接的な制御能力はありません。ただし、OpenAIはデータのプライバシーとセキュリティに対して取り組んでいます。通常、ユーザーが提供するデータは学習データとして使用される可能性がありますが、その取り扱いはOpenAIのデータポリシーやガイドラインに基づいています。

ユーザーが特定の会話を学習対象から除外したい場合、OpenAIに直接連絡してリクエストを行うことが一つの方法です。しかしこれには限度があり、完全な保証は難しいです。機密情報や個人情報を扱う際には、最初からAIを利用しない、もしくは適切なセキュリティ対策が施された環境で利用することが望ましいです。

 

私#5:

「完全な保証は難しいです。機密情報や個人情報を扱う際には、最初からAIを利用しない、もしくは適切なセキュリティ対策が施された環境で利用することが望ましいです。』というのは、少し残念です。

ChatGPT#5:

確かに、現状の技術では完全な保証を提供することは難しいです。しかし、OpenAIは継続的にプライバシー保護やデータセキュリティの向上に努めており、今後の技術開発によって、より安全で信頼性の高いAIが提供されることが期待されています。

機密情報や個人情報を取り扱う際には、現時点では、適切なセキュリティ対策を講じた環境での使用や、AIを利用しない方法を検討することが望ましいです。技術やデータ管理の進歩に伴い、将来的にはこのような問題が改善されることが期待されます。

 

私#6:

例えば、無料版のChatGPTは、無料で使えることと引き換えにユーザは、チャットでやり取りした内容が学習データとして利用されることを了解した上でユーザ登録する。ChatGPT Plusの有料サービスに関しては、基本的に1回の「New chat」のセッション中のみ、チャット内容も回答作成に利用するけれども、そのセッションが終われば、セッション内で得た学習成果は破棄するといった形はとれないでしょうか?

ChatGPT#6:

私はOpenAIが提供するすべての製品やサービスの開発や運用に関与しているわけではないため、具体的なプランの提案や実現性については回答することができません。ただし、ご提案いただいたようなプランは、ユーザーのプライバシーやデータセキュリティに配慮したものであり、OpenAIが将来的に検討する可能性があります。

OpenAIはユーザーのフィードバックやニーズに応じて、サービスを改善し続けています。ご提案いただいたようなアイデアは、技術進歩やデータ管理の向上により実現できるかもしれません。しかし、具体的な実現時期やサービス内容については、OpenAIの公式発表や情報を参照していただく必要があります。

 

私#7:

現在、イタリア政府や、Bank of America Corp.、Goldman Sachs Group Inc.、Citigroup Inc.、Deutsche Bank AG、Wells Fargo & Co.などの企業が、世界中のオフィスでChatGPTの使用を禁止しているようですが、ChatGPTが(というかGPTがという方が正しいでしょうか)ChatGPT利用者の許諾なしに、チャットをとおして知りえた情報を「勝手に」「無断で」学習データとしてしまうところが問題ではないかと思います。「ここはオフレコで相談したいんだけど」と言って始めた会話の内容は「その場限りとする」というOpenAIのプライバシー保護ポリシーがあれば、こう言った使用禁止という判断にはならないと思います。

ChatGPT#7:

おっしゃる通り、機密情報やプライバシーに関する懸念が、一部の政府や企業がChatGPT(もしくはGPTシリーズ)の使用を禁止する理由となっています。現状では、完全なプライバシー保護や機密情報の取り扱いに関して十分な対策が施されていないため、このような判断がなされていることは理解できます。

ご提案のような「オフレコ」モードや、セッションごとに学習データを破棄する機能が実装されると、確かに懸念が軽減される可能性があります。OpenAIはユーザーからのフィードバックやニーズに応じて、プロダクトの改善や新機能の開発に取り組んでいます。今後の技術開発やプライバシー保護の向上によって、このような問題が解決されることが期待されます。

その一方で、AI技術の進歩やデータ管理の改善が進んでも、政府や企業がChatGPTの使用を再検討するかどうかは、それぞれの状況やポリシーによります。機密情報やプライバシーに関する問題は極めて重要であり、それらの取り扱いに関しては慎重な判断が求められます。

 

私#8:

最後のパラグラフであなたは何を示唆しようとしているのかよくわかりません。

ChatGPT#8:

すみません、説明が不十分でした。最後のパラグラフで伝えたかったことは、機密情報やプライバシーに関する問題は非常に重要であり、それらを適切に取り扱うことが求められるということです。そして、AI技術の進歩やデータ管理の改善があっても、それぞれの政府や企業が、独自の状況やポリシーに基づいて、ChatGPTの使用を再検討するかどうかは異なるでしょう。

すなわち、ある企業や政府が機密情報やプライバシーのリスクを十分に低減できると判断すれば、ChatGPTの使用を許可するかもしれません。しかし、他の組織では引き続きリスクが高いと判断し、使用を禁止する可能性もあります。最終的な判断は、それぞれの組織の状況やポリシーによって異なるということをお伝えしたかったのです。

 

私#9:

「ある企業や政府が機密情報やプライバシーのリスクを十分に低減できると判断すれば」という部分ですが、ChatGPTのプラグインとして、チャット入力の内容を事前チェックするようなものが作れれば、それを利用することで機密情報やプライバシーのリスクを低減できるという意味でしょうか?

ChatGPT#9:

はい、そのようなプラグインや機能が実装されれば、機密情報やプライバシーのリスクを低減する助けとなるでしょう。例えば、チャット入力内容を事前にチェックし、機密情報やプライバシーに関わる情報が含まれている場合に警告を出すか、送信をブロックする機能があると、ユーザーはより安全にChatGPTを使用できるようになります。

ただし、そのようなプラグインや機能を実装する際には、誤検出や検出漏れの問題が発生しないように注意が必要です。また、組織ごとのポリシーや法規制に応じて、カスタマイズ可能なフィルタリングルールを設定できるようにすることが望ましいでしょう。

そのような対策を実施すれば、企業や政府がChatGPTを安全に使用できる環境を整えることが可能になり、機密情報やプライバシーのリスクを低減できると言えます。

 

私#10:

メール誤送信防止ソリューションのようなものですね?現在そのようなOpenGPT用のプラグインはあるでしょうか?

ChatGPT#10:

おっしゃる通り、メール誤送信防止ソリューションに似た機能があると、ChatGPTの使用時に機密情報やプライバシーに関するリスクを低減できるでしょう。

ただし、私の知識(2021年9月まで)では、そのようなOpenAI GPT用のプラグインやソリューションは確認できません。ただ、技術の進歩や需要の増加に伴って、今後の開発や導入が期待されます。

企業や開発者が独自に、ChatGPTと連携する形でセキュリティ対策を講じるソリューションを開発することも可能です。そのような取り組みによって、組織ごとのポリシーや法規制に対応した安全な利用環境が整うことでしょう。

 

 

私#11:

Microsoft Security Copilotの情報はまだ持ち合わせていないんですね?

ChatGPT#11:

申し訳ありませんが、私の知識は2021年9月までのものであり、それ以降の情報は持ち合わせていません。そのため、Microsoft Security Copilotに関する情報や、それに関連する最新の開発についてはお答えすることができません。

ただし、技術の進歩やAIの安全性とプライバシーに対する関心の高まりにより、Microsoftなどの企業が独自のセキュリティ対策やプラグインを開発することは十分に考えられます。最新の情報や開発については、公式ウェブサイトや関連ニュースをチェックしていただくことをお勧めします。

 

私#12:

Bingに訊いたところ、以下の回答がありました。

「Microsoft Security Copilot」は、Microsoftが提供するAIセキュリティ対策です。同社のAI技術を活用し、セキュリティエンジニアが行う作業を自動化することで、人力に頼らないセキュリティ対策を実現しています。同製品は、以下の3つの原則を掲げています。

  • あなたのデータは常にあなたのものであること
  • あなたのデータは他人が使用する学習モデルのトレーニングには用いられず、あくまで組織内にとどまること
  • 業界で最も包括的なエンタープライズレベルのコンプライアンス(法令順守体制)とセキュリティ制御によって、あなたのデータをAIモデルを保護すること

同製品は、企業でChatGPTを活用する際に、プロンプトに企業機密や個人情報を入力してしまう問題に対処するために開発されました。同社のAI技術を活用し、入力されたセンシティブな情報が学習データに含まれることがないようにしています。

ChatGPT#12:

ありがとうございます。その情報によると、Microsoft Security Copilotは企業がChatGPTなどのAI技術を利用する際に、機密情報や個人情報を保護するためのセキュリティ対策を提供しているようですね。これは、私の知識が2021年9月までのものであるため、私が持っていなかった情報です。

Microsoft Security Copilotが提供する原則によって、ユーザーのデータは適切に保護され、学習データに含まれないようにすることが可能です。これにより、企業や政府が機密情報やプライバシーのリスクを低減できると考えられます。

Microsoft Security Copilotのようなセキュリティ対策を利用すれば、機密情報や個人情報の取り扱いに関する懸念がある組織でも、AI技術をより安心して利用できるようになるでしょう。

 


 

以外にも、冒頭「私#1」で「ChatGPTを使うと、チャット時のやり取りの内容も学習対象としてChatGPTが取り込むため機密情報保護の観点から政府や企業はChatGPTを使うべきではない」という意見があるかどう思うかたずねたところ、ChatGPTは、あっさりユーザーとの会話データを学習対象として取り込むことがあるため、政府や企業が機密情報を扱う際に、ChatGPTを使うことはリスクが伴う可能性があることを認めました。

「取り込むことがある」というあいまいな回答に対して、もっと具体的に学習するかしないかの判断基準をたずねたところ、個人情報に関する具体的な判断基準については、通常、個人名、メールアドレス、電話番号、住所などの個人を特定できる情報が含まれている場合、そのデータは学習対象から除外されるが、完全に個人情報を取り除くことは技術的に難しい場合があり、そのため、OpenAIはデータの匿名化や偽名化に努めているとの回答でした。

データ取り扱いに関する法律や規制への準拠に関しては、もう少し突っ込んでもよかったのですが、「各国の法律や規制に対応するために、OpenAIは適宜データ取り扱いのガイドラインやポリシーを更新している」ということで良しとしました。

「私#5」では、『無料版のChatGPTは、無料で使えることと引き換えにユーザは、チャットでやり取りした内容が学習データとして利用されることを了解した上でユーザ登録する。ChatGPT Plusの有料サービスに関しては、基本的に1回の「New chat」のセッション中のみ、チャット内容も回答作成に利用するけれども、そのセッションが終われば、セッション内で得た学習成果は破棄する』といった形が取れないか尋ねてみたのですが、OpenAIに言ってくれとかわされてしまいました。

「私#8」で、ChatGPT使用禁止の国や企業があることをどう思っているか訊いたのですが、「現状では、完全なプライバシー保護や機密情報の取り扱いに関して十分な対策が施されていないため、このような判断がなされていることは理解できます」という冷静な回答。

「私#11」で、機密情報や個人情報のチャット入力を事前チェックするメール誤送信防止ソリューションのようなプラグインがないかたずねたところ、「私の知識(2021年9月まで)では、そのようなOpenAI GPT用のプラグインやソリューションは確認できません」とのこと。

そこで、マイクロソフトのBingで見つけた「Microsoft Security Copilot」の情報を提供すると、ChatGPT#13では、すなおに「Microsoft Security Copilotのようなセキュリティ対策を利用すれば、機密情報や個人情報の取り扱いに関する懸念がある組織でも、AI技術をより安心して利用できるようになるでしょう」と認めるではありませんか。

通常、回答を作成する時はあんなに見栄っ張りで知ったかぶりをするくせに、この回答は非常に素直で謙虚だったので、驚きました。

#Microsoft Security Copilotのページに、「Start free trial」というメニューがあったのでクリックしてみたのですが、free trialは、まだのようです。

Microsoft Security Copilot is currently in preview and not yet generally available. Sign up for Microsoft Security updates to learn about product announcements, security insights, and upcoming events.

とありましたので、とりあえずSign upし、今後Microsoft Security Copilot情報収集も行っていきます。

今回は以上です。

 

終わり