ChatGPTを安全に使うには?

ChatGPTを安全に使うには?
2022年11月に登場したChatGPTは瞬く間に世界を席巻し、ChatGPTがもたらした「生成AI革命」はすぐには消えそうにありません。世界中のさまざまな組織がソフトウェアコードのレビューや、Webコンテンツの作成、財務データの分析によるインサイトの発見など、万能の仮想アシスタントとしてAIを採用しています。しかし、プロンプトとともにChatGPTに入力したすべての情報はどうなるのでしょうか?

ChatGPTはあなたのデータを保存するのでしょうか? という質問の答えは、「はい、保存します」です。しかも、おそらくあなたが想像している以上のデータを保存しています。

ChatGPTは、アカウントレベルの情報と会話履歴の両方を収集しています。これにはメールアドレス、デバイス、IPアドレス、位置情報などの記録や、ChatGPTのプロンプトで使用する公開された情報、そして個人の情報が含まれます。

これがビジネスにとって何を意味するのか、そして機密データをどのように安全に保つことができるのかを説明します。

ChatGPTはどのような種類のデータを保存するのか?

ChatGPTを運営するOpenAIのプライバシーポリシーによると、収集される個人情報には「ChatGPTが自動的に受け取る個人情報」と、「ユーザーが提供する個人情報」の2種類があるとされています。

ChatGPTが自動的に受け取る個人情報は、他のSaaSアプリと変わりません。
  • デバイスデータ:多使用デバイスやオペレーティングシステムなど
  • 使用状況データ:位置情報、時間、使用ブラウザのバージョンなど
  • ログデータ:IPアドレスや使用ブラウザなど
これらのデータはOpenAIによって、ユーザーがChatGPTとどのようにやり取りしているかを分析するために使用されています。

しかし、ChatGPTが保存するデータはそれだけではありません。
ユーザーが提供した以下のようなデータも保存します。
  • アカウント情報:名前、メールアドレス、連絡先など
  • ユーザーコンテンツ:プロンプトで使用する情報やアップロードしたファイルなど
OpenAIはこれらの提供されたデータを、ChatGPTモデルを訓練し、質問への回答やユーザー支援の能力を向上させるために使用しています。

このように、OpenAIがユーザーの識別情報と提供したコンテンツを収集・保存していることから、世界中の数多くの企業が、従業員によるChatGPTの使用を禁止する動きを見せています。

しかし、Forcepointはそれが正しい対応だとは考えていません。

ChatGPTがデータを保存することのリスク

ChatGPTがデータを保存することによる主なリスクは、データ漏洩やデータ侵害につながる可能性があることです。意図的ではないにしても、ChatGPTとの一般的なやり取りでさえ、企業をデータセキュリティリスクにさらす可能性があります。

具体的には以下のようなリスクが考えられます。
  • ChatGPTがあなたのデータから学習し、知的財産や個人を特定できる情報などの機密情報を、組織外の他のユーザーと共有してしまう
  • OpenAI自体がデータ侵害の被害を受け、ユーザーが提出したデータが漏洩する
OpenAIの名誉のために付け加えれば、ChatGPTに自分の会話からモデルを学習させないようにユーザーが設定できる機能を追加しました。ユーザーはチャット履歴をマメに消去すべきですが、ユーザーごとに生成AIのセキュリティを見直すことは、機密データが漏れる原因になりかねません。

ChatGPTをはじめとする生成AIを他のサードパーティのソフトウェアベンダーと同様に扱うことが、組織がユーザーを満足させ生産性を維持しつつ、最も機密性の高い情報を安全に保つための鍵となるでしょう。

誰がアクセスできるべきか、どのような活動に使用できるか、どのようなAIプログラムが安全に使用できるかなど、生成AIに対する組織の見解と利用ポリシーをきちんと策定すべきです。この活動は、生成AIを安全に使用するための包括的な戦略の基礎となります。

Forcepointと生成AIセキュリティ

生成AIを完全にブロックすることはできません。この技術はまだ改善の余地はありますが、無視するにはあまりにも有用なツールです。

Forcepointの生成AIセキュリティソリューションを活用することで、組織がAIの可能性を安全に解き放つことができるようになります。

Data-first SASEプラットフォームの一部であるForcepoint ONE SSEは、生成AIアプリケーションへのトラフィックを監視して、管理対象および非管理対象デバイスの両方で、許可されていないユーザーによるアクセスを防ぐ独自の能力を持っています。Forcepoint ONEは、ThreatseekerのURL分類やフィルタリングを使って、絶えず出現する新しい生成AIアプリケーションに対すてポリシーを適用し、一貫したカバレッジを確実に提供します。

Forcepoint DLPをChatGPTに使用することで、Webやパブリッククラウドにデータセキュリティ制御を拡張し、機密情報がチャットに貼り付けられたりアップロードされたりするのを防ぐことが可能となります。これにより、ユーザーがOpenAIとの会話履歴をオフにしていても、データが意図せずにChatGPTに漏洩するのを防ぎます。

ChatGPTがデータを保存すること自体はセキュリティリスクではありませんが、それを考慮に入れた強固なデータセキュリティ戦略なしに生成AIを利用することは、組織にとってリスクとなります。組織が生成AIの使用をどのように安全にできるかについて学ぶために、今すぐForcepointの専門家に相談しましょう。

出典:「Yes, ChatGPT Saves Your Data. Here's How to Keep It Secure.」
https://www.forcepoint.com/blog/insights/does-chatgpt-save-data

関連リンク

製品&ソリューション