悪意あるハッカーもAIを利用する
例えば、多くのプロジェクトがあるというAIアルゴリズムでは、少ないデータで推論できるようにすることが1つのフォーカスとなる。ラボのディレクターを務めるトラルバ(MIT 電子工学とコンピュータサイエンス教授)が進めているのが、機械に絵を描かせるという研究だ。
画像をたくさん見せて重要なことを学んだ上で、存在しないものを描く━━人間なら容易くできることが機械では難しい。
深層学習のGAN(Generative Adversarial Network)を用いることで進化してきたが、プロジェクトでは、ランダムなネットワークからネットワークが内部表現を学び、特定のものを描くことができるような研究を進めているという。
2010年のGANによる画像。まだぼんやりしている
2018年のGANによる画像。かなりリアルになった
Torralba氏は、「処理能力が大きく向上し、数年前には不可能だったアルゴリズムを動かすことができるようになった。人間の脳の動きへの理解も深まっている」と述べた。
窓、人、椅子などの内部表現を学ぶことで、生成した画像から人を消すなどのことが可能になる
IBMからディレクターに任命されたコックスが紹介した取り組みの1つが、セキュリティだ。
AIはコンピュータセキュリティだけでなく、マルウェアなどを作成する悪者もAIを利用する。また、AIそのものが標的になりうる可能性もあるという。「学習でも標的になるし、デプロイされてからも標的になる。ハッカーは両方の攻撃が可能だ」とコックス。
学習で標的となる例として悪い学習データを入れることでAIが出す結果に影響を与える「ポイズニング」という攻撃手法を紹介した。デプロイ後の攻撃については、「AIは人間が騙されないようなことに騙される」とのこと。
顔認識の精度は上がっているが、99%の精度を持つ顔認識システムがカラフルなメガネをかけた男性を女優のミラ・ジョボビッチと誤認識したり、「Stop」という交通標識のピクセルを少し変えただけで、茶色のテディベアと誤認識することもあるという。
「自動運転の世界になると、悪者がこのような攻撃を仕掛けて自動運転車を騙すことが考えられる」とコックス。IBMとMITの研究者が防御システムの開発にあたっているという。
顔認識と道路標識の誤認識
このように”広いAI”の研究を進めつつ、見据えるのは”汎用AI”だ。そこに向かうためには、「説明性」「安全性」「倫理」「少量のデータから学習できる」「インフラ」が必要になるとIBMは考えている。
“汎用AI”に向けて必要な研究テーマ
森山は「総務省のレポートでは、AIの浸透率は14%となっており、これから普及に入る。それにあたって、AIの技術的土台、ユースケース、どうやってデータやアルゴリズムを管理してビジネス的なシステムにしていくかが重要になる」と述べた。
MITではAIとコンピュータ科学を履修する学生は2010年を境に急増しているという。ラボを通じて、IBMの産業的な知識と技術との掛け合わせによる成果が期待される。