Close

PICK UP

AI通信「こんなとこにも人工知能」

Lia Koltyrina / shutterstock.com

イスラエルのAIスタートアップ・AnyVisionが、米半導体企業のNVIDIAの技術を採用し「99%の精度」で人間の顔を認識するAI監視カメラを開発した。海外各メディアが詳細を報じている。

今回、AnyVisionが発表したAI監視カメラの精度は、既存のどの製品よりも高いとの触れ込みだ。中国政府が昨年から導入しているAI監視カメラシステムは3秒以内に人々の顔を識別することが可能だが、その正確さは90%程度。しかし、NVIDIAがイスラエルのAIスタートアップ、AnyVisionと共同開発したこの高精度のAIカメラでは、群衆の中から100%に近い精度で特定の人物の顔を認識し、リアルタイムで追跡することが可能だ。

AI監視カメラは今後、犯罪やテロなどを24時間体制で監視するなど、より堅固な民間防犯システムや、パブリックセキュリティーシステムの構築に活用されていくと期待されている。また銀行のATM付近に設置が可能で、オレオレ詐欺や、違法な引き出し行為を追跡するなど、さまざまな用途にも威力を発揮していく見通しだ。

なお、監視カメラを知能化するためには、既存の製品のグラフィックチップだけ差し変えればよいため、追加の設置費用があまりかからないというメリットもある。

画像認識、もしくは顔認識を行うAIが防犯用途で普及していくという見通しは、ここ数年、各国警察機関や調査企業によって予測されてきた。NVIDIA側の発表が事実であれば、防犯・警備分野にAIが浸透していくスピードはさらに加速してくかもしれない。

一方、iPhone Xの顔認証技術など、セキュリティー分野でもAIの実用化が始まっているが、筑波大学人工知能科学センターの佐久間淳教授チームは、顔認識AIを騙す「ハッキングAI」の危険性について研究を続けている。

一般的に、顔認証プログラムの学習データをハッキングする側が知ることは困難なため、顔認証システムが悪用される可能性は極めて低いが、悪意ある第三者が顔画像を再現して安全性を脅かす可能性はゼロではないといのが、研究チームの立場だ。また研究チームは、AIの学習に使われる画像がハッキングされた場合、深刻なプライバシー侵害が生まれる可能性があるとも指摘している。

AIによって監視カメラと顔認証システムの精度が上がっていけば、そこに共通した課題が生まれるかもしれない。ひとつは、上述のプライバシー問題。監視目的で顔データが収集されるのが当たり前になるのは、街ゆく人にとっては決して気分が良いものではないだろう。一方、スマートフォンなどのセキュリティー用途で膨大なデータが集められれば集められるほど、ハッキングや画像流出時に、個人が被る被害は大きくなるということは容易に予想できる。

また上記の話を総合すれば、AI監視カメラをハッキングして騙すAIが登場してくる可能性も否定できない。その際、画像データ(もしくは画像データをAIが正確に判断したという事実)を根拠に、罪のない人が冤罪に巻き込まれる危険性もある。おそらく、それは“AI冤罪”という名前で呼ばれ始めるかもしれない。

「99%」。そのテクノロジーの精度を有効活用するためには、法整備や技術への理解など社会の知恵も必要になってくるはずである。

文=河鐘基

記事が気に入ったら
いいね!しよう

LIKE @Forbesjapan

Forbesjapanを
フォローしよう

FOLLOW @Forbesjapan

あなたにおすすめ

合わせて読みたい