人間中心のAIは、「人間の主体的な意思決定を損なわないAI」であるべきという議論もある。
これは、SNSなどデジタル空間上における大量のテキスト生成、もしくはディープフェイクなど動画生成技術の乱用・悪用を想定した議論である。AIが普及すると、人間の目には見抜けないような精巧かつ大量の情報が出回ることになる。
そこには、フェイクニュースやプロバカンだなど、特定の人々の利害に基づいた情報も多く含まれるはずで、AIはその悪意ある情報発信に加担してはならないというものである。
なお、人間中心のAIは「仕事を奪わないAI」であるべきだという議論もある。ただ、AIはそもそも仕事を代替するために研究・開発されているため、同議論は一部にとどまっている感がある。
こうしてみると、人間中心のAIに対する技術的要求性は非常に高く、実現までの道のりは遠いように思える。またこれから先、AIが及ぼすデメリットが露見するたびに、その概念やコンセプトはアップデートされていくはずである。さらに言えば、実現が難しいだけに実現すれば大きな商機ともなるだろう。
ただ一方で、「公平なAI」などは人間個々人、もしくは社会そのものが公平でないと実現しないのではないだろうかという疑問も湧いてくる。技術以前に、それを扱う人間の考え方や価値観の方が影響として大きいからだ。
人工知能が社会に普及することが避けられない昨今、「人間中心のAI」と同時に、「人間中心の人間・社会」という哲学も深めていくことがじきに求められていきそうだ。
連載:AI通信「こんなとこにも人工知能」
過去記事はこちら>>