AI

2026.03.12 08:26

AIカメラが密かに改変した写真で、あなたは「偽証」するかもしれない

AdobeStock

AdobeStock

サムスンのスマートフォン事業トップの幹部たちは先週、写真の真正性について明確な答えを返せなかった。Unpacked後のQ&Aセッションで、AIによる写真強化とディープフェイク危機の間で高まる緊張について、4人の上級幹部が問いただされたのだ。同社のモバイル製品管理担当SVPは、いずれ私たちはAI生成コンテンツが「それほど大した問題ではない」と振り返るようになるだろうと述べ、現在の懸念を、かつてユーザー生成コンテンツに向けられた初期の懐疑になぞらえた。

しかし、その比較はまったく逆である。ユーザー生成コンテンツは現実を捏造したのではない。誰がそれを発信できるかを民主化したにすぎない。いまあなたのスマホのカメラの内部で起きているのは、まったく別の事態だ。AIが写真を、保存される前に改変している。そしてそれは、ほとんどの人がまだ十分に考え切れていない問題を生み出している。どうやら、これらのスマホをつくっている当事者たちでさえ例外ではない。

存在しなかった「オリジナル」

現代のスマートフォンカメラは、従来の意味で写真を「撮影」しているわけではない。写真を「組み立てている」のだ。シャッターをタップする前から、カメラは複数の露出を合成し、ノイズリダクションを適用し、ダイナミックレンジを最適化し、AIが被写体を推測した結果に基づいて色、コントラスト、ディテールを変更するシーン認識モデルを実行している。サムスンのGalaxy S26カメラでは、ギャラリーアプリ内で自然言語プロンプトを通じて画像を再構成できるようになり、昼間の写真を夜景に変えたり、欠けた要素を数語で復元したりできる。これらはすべて撮影後に行われるが、ほとんどのユーザーがパイプライン内の処理がすでに作業を終えていることに気づくよりも、ずっと前の段階で実行されている。

従来の写真撮影では、センサーが光を捉え、ファイルがストレージに書き込まれ、そのファイルが証拠としてのオリジナルになった。その後に加えられた操作は痕跡を残す。メタデータの変更、圧縮由来のアーティファクト、フォレンジック(デジタル鑑識)の専門家が特定できるピクセルレベルの不整合などだ。しかしAI処理が撮影パイプライン自体に組み込まれている場合、ストレージに書き込まれる「オリジナル」はすでに合成物となっている。グラウンドトゥルース(真の基準データ)、つまりセンサーが実際に記録したものは、ファイルシステムに到達しない。

サムスンは2023年、これを最も鮮烈に示した。Redditのユーザーが証明したのは、Galaxy端末が、元画像には存在しない月面のクレーターのディテールを月の写真に付け足していたという事実だ。端末は「月」を認識し、学習データから質感を生成した。サムスンはこれを「強化」と呼んだ。だが法科学の観点から見れば、カメラは光学系が捉えなかった情景のディテールを捏造していた。

スマホはその写真を改変したのに、あなたに告げなかった

特に危険なのは、これが不可視のまま起きることだ。サムスンのAI処理は自動で作動し、ユーザーは何年も前から記録しているように、端末が撮影から数秒以内に画像を改変する。明るさ調整、彩度の強調、平滑化、合成が行われ、写真がギャラリーに表示される前に処理されてしまう。通知はない。確認のプロンプトもない。あなたが見ているものが、カメラが見たものではない可能性を示す明確な表示もない。標準的な撮影モードの多くでは、この処理を完全にオフにする手段がない。フォーラムには、保存された画像がファインダー越しに見えたものと違うことに気づいて初めて改変を知った、写真家たちの投稿があふれている。

これは些細なUIの不満ではない。深刻なフォレンジック上の帰結を伴う「同意」の問題である。C2PA(Coalition for Content Provenance and Authenticity、コンテンツの来歴と真正性のための連合)のような来歴標準は、どのデバイスがファイルを生成し、事後にどのような編集が加えられたかを証明できる。C2PAは、2025年1月にNSAと同盟国の情報機関が支持した。サムスンはGalaxy S25でC2PAを採用し、S26で拡張した。

しかし、コンテンツクレデンシャル(Content Credential)が生成される前にAIパイプラインがすでに画像を改変しているなら、そのメタデータが忠実に証明しているのはAI合成物である。合成コンテンツに関するNISTのAI 100-4報告書はこの点を明確に述べている。単一の透明性手法では十分ではない。コンテンツクレデンシャルが示すのは、ファイルがその来歴について主張していることにすぎない。情景が実際にどう見えていたかまでは示せない。

自分が撮っていないものに宣誓する

ここで法的リスクは個人の問題になる。写真証拠が法廷に入る典型的な流れを考えてみよう。証人に画像が提示され、こう問われる。「これは、あなたが観察したものを公正かつ正確に表したものですか」。証人は「はい」と答える。宣誓の下での証言である。これは、連邦証拠規則901における標準的な真正性確認の文言だ。

では、家事裁判の当事者があざを撮影するケースを考える。保険請求者が財産損害を撮影するケース。原告が交通事故現場を撮影するケース。いずれの場合も、スマホが画像を明るくし、平滑化し、色補正し、合成することで、見え方が変わっている可能性がある。証人は嘘をついているのではない。正確だと信じている画像の真正性を確認しているにすぎない。シャッターを押した瞬間から、ファイルがカメラロールに表示された瞬間までの間に、スマホが何をしたのかを単に知らないだけである。裁判所はすでにディープフェイク証拠の課題に直面している。規則901の改正案は、AIで改変された証拠の枠組みを整備することを狙う。しかしその枠組みは、改変が意図的であるか、少なくとも検出可能であることを前提としている。改変がデバイスのデフォルト動作に組み込まれていたら、どうなるのか。

組織にとっての意味

写真証拠に触れるあらゆる組織は、この問題と向き合う必要がある。訴訟ホールドを管理する法務部門、請求を処理する保険会社、内部調査を担うコンプライアンスチーム、職場のインシデントを記録する人事部門も含まれる。AIを用いた検知ツールや、C2PAの適合性プログラムは有用だが、扱うのは透明性であって、真正性ではない。証拠が精査に耐える必要がある場合、ソースとなったデバイスのデバイスレベルのフォレンジック検査こそが、依然として唯一の信頼できる方法である。

サムスンの幹部が、写真の真正性が業界全体の課題だと述べた点は誤りではない。だが、それを軽く扱ったのは誤りだ。Unpackedで答えるべきだった問いは、Galaxy S26にAIラベルを搭載するかどうかではない。AIがセンサーとファイルシステムの間に座り込み、ユーザーがその存在に気づかないとき、証拠としての真実に何が起きるのか、という問いである。いまこの瞬間も、証人たちは、スマホが密かに改変した画像の正確性に宣誓している。これは時間とともに薄れる認識の問題ではない。すでに現実のものとなった法廷の危機である。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事