AI

2023.08.13 08:00

ChatGPTで絶対に共有してはいけない5つのこと

財務情報


ChatGPTクライアントを装い、財務情報を勧誘するモバイルまたはコンピュータのアプリに遭遇した場合は警戒する必要がある。これらはChatGPTマルウェアの可能性があるからだ。いかなる場合であっても、そうしたデータを提供するべきではない。代わりに、速やかにアプリを削除し、OpenAI、Google、Microsoftのような信頼できるソースから公式の生成AIアプリのみをダウンロードしてほしい。

ビジネスに関する機密情報


仕事に関する機密情報を生成AIボットと共有することに伴うリスクは、いくら強調してもし過ぎることはない。サムスンやアップルなどは、機密データがOpenAIのサーバーに流れてしまった後、こうしたボットの使用を禁止した。これは、業務上の秘密はあくまで秘密でなければならないということを思い起こさせるものだ。ChatGPTを利用する際は、仕事に関する機密事項を漏らさないよう、別の方法を探そう。

Wonderfulengineering

Wonderfulengineering

健康データ/メンタルヘルスに関わる個人的な考え


次に、健康データという複雑な問題を取り上げたい。詳細な健康情報をチャットボットと共有しないことを強く勧める。仮定のシナリオや症状を提示することで、ChatGPTにガイダンスを求めたくなるかもしれないが、注意が必要だ。将来の進歩により、生成AIは正確な診断や洞察を提供できるようになるかもしれないが、個人用のオンデバイスAI製品に限定されない限り、健康データをすべて漏らさない方が賢明だ。

さらに、メンタルヘルスに関わる個人的な考えや議論は、慎重な検討に値する。賛否両論はあるにせよ、治療目的でチャットボットに頼る個人もいる。それでも、中心的なポイントは変わらない。ChatGPTや同様のチャットボットは、人々の個人的な思考のプライバシーを保証することはできないのだ。OpenAI、グーグル、マイクロソフトのサーバーと共有されると、それらはAI訓練のための粉砕機となる。

私たちは、心理学者のような役割を果たすことができる生成AI製品を期待しているが、まだその段階には至っていない。従って、チャットボットに自身の心の内を託す際には、共有される情報が限定的なものであることを確認し、注意を払う必要がある。

Wonderfulengineering

Wonderfulengineering


ChatGPTが提供するデータは必ずしも正確とは限らない。これは、健康問題を含む幅広いテーマに当てはまる。回答の信頼性を確認するには、常に提供された情報の出典を問い合わせてほしい。もちろん、よりカスタマイズされた回答を期待して、チャットボットに追加の個人情報を提供する誘惑には負けてはならない。

最後になるが、生成AIプログラムを装ったマルウェア・アプリには危険が潜んでいる。こうしたアプリの餌食になることは、知らず知らずのうちに個人データを明け渡し、ハッカーの言いなりになってしまうことを意味するのだ。ハッカーはすでに個人情報を当人に不利になるように使っているかもしれない。

結局のところ、より厳しい規制が制定され、オンデバイスのAIソリューションが普及するまで、AIチャットボットと対話する際には注意を払うことが最も重要である。プライバシーの保護と機密情報の保護は、進化し続ける生成AIの展望を考える上で、最重要課題であるべきだ。


(この記事は、英国のテクノロジー特化メディア「Wonderfulengineering.com」から翻訳転載したものである)

編集=石井節子

タグ:

ForbesBrandVoice

人気記事