テクノロジー

2023.06.09 10:00

ChatGPTで露呈した「今も変わらない」企業セキュリティの根本的課題

メールの誤送信であれば、誤ってデータが共有される対象はある程度限定される上、誤って受け取った相手に削除を求めることは可能だ。ファイル共有サービスの場合にも、リンクを受け取った相手に削除を促したり、ファイル自体をダウンロードしないように求めたりすることができる。また、ファイルを閲覧するべきではない人物がアクセスできる状態になっていれば、設定を変更したりファイル自体を削除したりすることでダメージコントロールをすることができる。

ChatGPTの場合、利用者が意図して機密情報をアップロードしている以上「誤送信」という表現は正しくないが、機密情報漏洩のダメージを抑制するための新しい動きがプラットフォーム側から発表され始めた。2023年3月1日には、API経由で入手したユーザーデータはオプトイン申請をした場合に限定して機能向上に活用されることが発表された。また、翌月となる4月25日には、チャット履歴を無効にする機能が新たに追加されたことが発表され、この機能を活用することで、ChatGPTとのやりとりが自動的に記録されることはなくなった。これら2つの発表により、利用者の設定次第でモデルのトレーニングや改良に入力したデータが利用されることはなくなった。

データプライバシーなどに関する社会全体の懸念を踏まえて、これらの機能改良が実施された点は歓迎すべきではある。しかし、OpenAIも明らかにしているように、機能改良以前にAPI経由で入力されたユーザーデータや、チャット履歴を無効にする機能を使わずにアップロードしたユーザーデータは、ChatGPTの改良に活用され続ける可能性がある。トレーニングや改良のためにユーザーデータが利用される前提で生成型AIに機密情報がアップロードされれば、利用者側ではその後のダメージコントロールが効かなくなる危険性がある点が、従来のメールやリムーバブルメディア、ファイル共有ツールを通じた誤送信などと根本的に異なる問題点だ。
次ページ > 繰り返される「流行の悪用」

編集=安井克至

タグ:

ForbesBrandVoice

人気記事