AIと子どものリスク
ユニセフが発表した「How Can Generative AI Better Serve Children’s Rights?(生成AIはどのように子どもの権利に貢献できるか)」と題したレポートは、AIの可能性とともにそのリスクにも目を向けるべきだと訴えている。
この報告書は、「子どもの権利条約」に基づいてAIを評価すべきだとし、「無差別」「子どもの意見の尊重」「子どもの最善の利益」「生命・生存・発達への権利」という4つの原則を提示している。
まず懸念される大きな問題は、「デジタル貧困(Digital Poverty)」とも呼ばれるアクセス不平等の問題だ。すべての子どもがインターネットやスマートデバイス、教育用AIにアクセスできるわけではない。その結果、一部の子どもが学習面で優位に立つ一方、ほかの子どもは取り残される。
さらに、トレーニングデータのかたよりも深刻な課題だ。AIシステムは社会の偏見を反映するため、子どもはオフラインで経験するのと同じ差別にオンライン上でも直面する可能性がある。また、個人データの収集と使用に関する同意の問題も厄介だ。たとえば9歳の子どもから「意味のある同意」を得るのは、法的にも倫理的にも極めて難しい問題だ。しかも、そのデータが商用モデルの学習に利用される場合はさらに複雑だ。
誤情報の拡散も大きな懸念材料となっている。子どもはフェイクニュースを見抜く力が弱く、デジタルの存在を信頼しやすい傾向がある。特に、社会的に孤立している、またはオンラインの時間が長すぎる子どもの場合は、チャットボットと人間の区別は必ずしも明確とはいえない。一部のボットは子どもの幻想を助長するような応対をしたと報じられている。


