AI

2026.02.04 09:11

何気ないAI会話が訴訟の証拠に──企業に求められる対応とは

AdobeStock_1875793814

AdobeStock_1875793814

ロバート・ローゼンバーグ氏は、Moses & Singer法律事務所のパートナーで、知的財産、エンターテインメント・メディア、AI・データ法を専門としている。

かつて、AIチャットボットに質問を入力することは、虚空に向かってささやくような行為だった。興味深い体験ではあったし、役に立つことも多かった。しかし、法的に重大な意味を持つとは考えられていなかった。

その幻想は、連邦裁判所がOpenAIに対し、著作権侵害で訴えている報道機関と著者らに2000万件の匿名化されたChatGPT会話ログを提出するよう命じたことで、突如として終わりを告げた。裁判所が求めたのは、厳選されたサンプルやキーワードでフィルタリングされた抜粋ではなく、実際の使用状況を示す意味のあるデータの一部だった。

あなたや従業員がAIチャットボットを使用したことがあるなら、この判決は重要な意味を持つ。裁判所は現在、AI会話を電子メール、テキストメッセージ、社内チャットメッセージと同じように扱っているようだ。それらは記録であり、記録は訴訟の際に再び表面化する可能性がある。

AIディスカバリーの時代へようこそ。

何が起きたのか(平易な説明)

この紛争は、ニューヨーク・タイムズ、シカゴ・トリビューン、複数の著者らが提起した16件の著作権訴訟を統合したものから生じている。原告らは、OpenAIが許可なく著作権で保護された記事をChatGPTの訓練に使用したと主張している。一方、OpenAIは、その訓練と出力が米国著作権法におけるフェアユースに該当すると主張してきた。この抗弁は現在、ほぼすべての主要なAI著作権訴訟の中心に位置している。

証拠開示手続きにおいて、OpenAIは当初、保存データの約0.5%に相当する2000万件の匿名化された会話ログを提出することに同意した(ブルームバーグ・ローによる)。原告側もこれに同意した。しかしその後、OpenAIは方針を変更し、原告の著作物に関連するキーワード検索で特定された会話のみを提出すると提案した。

裁判所はこのアプローチを却下した。米連邦地裁のシドニー・H・スタイン判事は、完全なサンプルの提出を求める命令を支持した。

裁判所がすべてを求めた理由

著作権法は、何かが複製されたかどうかを問うだけでは終わらない。問題となっている使用が原著作物の市場に損害を与えるかどうかも問う。私の見解では、著作権で保護されたテキストを再現する会話だけを見ても、この問いに答えるのは難しい可能性がある。ニュースを日常的に要約し、時事問題を説明し、詳細な事実に関する質問に答えるチャットボットは、直接引用しなくても、ジャーナリズムや書籍と競合していると主張する者もいる。

通常の会話を総合的に見れば、AIが著作権で保護されたコンテンツの代替物として機能しているかどうかが明らかになる可能性がある。スタイン判事は命令を支持する際、次のように述べた。「報道機関である原告の著作物に関連するログと、報道機関である原告の著作物とは無関係なログの両方が、本件に関連性を持つ。なぜなら、『報道機関である原告の著作物の複製を含まない出力ログであっても、OpenAIのフェアユース抗弁に関連性を持つ可能性がある』からだ」

OpenAIは、ユーザーの会話を提出することはプライバシーの利益を侵害すると主張した。裁判所はこれに同意しなかった。プライバシーは裁判所が考慮した要素の1つではあったが、必要なログ数を2000万件に減らし、サンプルを匿名化することでプライバシーの利益は保護されると、スタイン判事の支持決定は述べている。

メッセージは明確だった。本件においては、プライバシーの利益は関連性に優先しない。

より大きな先例

著作権を超えて、この判決はさらに重大な何かを確認していると私は考える。AI会話ログは、証拠開示可能な電子的に保存された情報である。

これにより、AI会話ログは電子メールアーカイブ、顧客サービスデータベース、社内メッセージングプラットフォームと完全に同列に置かれる。データがこのカテゴリーに入ると、訴訟、規制当局の調査、内部調査において証拠開示の対象となる可能性がある。

これは、あなたのビジネスがAIの訓練や出版と何の関係もない場合でも重要だ。従業員がAIツールを使用して電子メールを下書きし、契約書を要約し、競合他社を分析し、戦略をブレインストーミングする場合、それらのやり取りはどこかに存在する可能性がある。紛争が生じた際、誰かがどのようなAIツールが使用され、何が生成されたかを尋ねるかもしれない。

その答えを知らないのであれば、すでにガバナンスの問題を抱えている。

これがあなたとあなたのビジネスにとって意味すること

いくつかの仮想的な実例を考えてみよう。営業チームがAIツールを使用して競合他社を要約し、証言録取で読まれると非常にまずい攻撃的な仮定を含めてしまう。製品マネージャーが、ある機能が競合他社の特許を侵害するかどうかを尋ね、後の善意の主張を損なう。医療従事者が便宜上、機密情報をチャットボットに貼り付け、規制上のリスクを生み出す。

明確なルールがなければ、AIツールは静かにリスクの増幅装置となり得る。危険なのは、データが存在するだけでなく、それをどのくらいの期間保持すべきか、誰がアクセスできるか、どのように安全に提出できるかを誰も決めていないことだ。

AIは記録を作成する。記録はリスクを生み出す可能性がある。今後、組織は許容されるAIの使用、データ保持、監督に関する明確なガイダンスを確立すべきだ。法務、IT、コンプライアンスチームは、AIインタラクションデータがどこに存在し、どのように管理されているかを理解しなければならない。AIはもはや単なる生産性ツールではない。企業情報エコシステムの一部なのだ。

結論

長年にわたり、AIの導入は法的インフラを大きく先行してきた。そのギャップは急速に縮まっている。私の見解では、裁判所は、AIシステムが人間のコミュニケーションを記録する他のあらゆるシステムと同じように扱われることを示唆している。

何気ない問いかけも、一時的な応答も、すべてが記録として残る。そして一度記録されれば、想定外の相手に読まれる可能性がある。AI経済においては、小さな会話でさえ大きな結果をもたらす可能性がある。

ここで提供される情報は法的助言ではなく、特定の事項に関する弁護士の助言の代替となることを意図していない。法的助言については、あなたの特定の状況について弁護士に相談すべきである。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事