AI

2025.08.11 12:30

あなたの息子や娘は、勉強にChatGPTを使うべき? 保護者のAIリテラシーが生む「分断」

Shutterstock.com

AIが変える学習の定義と、新たな教育格差の到来

生徒に求められることが変わりつつある。例えば、学習コンテンツを暗記することから、統合的に理解することへと変化している。与えられた「問いに答える」ことよりも、より良い「問いを立てる」ことが求められている。AIはこの進化を加速させる可能性を秘めているものの、それはAIが賢く使われた場合の話だ。

advertisement

課題は、多くの生徒や学校がいまだ手探りで対応している点だ。一部の学区ではAIツールを受け入れ、カリキュラムにデジタルリテラシーを取り入れている。他の学区ではそれらを一律で禁止している。このばらつきが、新たな「学習の格差」を生み出している。しかもこの格差は、所得・地域によるものではなく、AIの習熟度、批判的な意識に根ざしている。

そして、AIのリテラシーはAIのスキルとは別物だ。例えばある生徒が、ChatGPTプロンプトの書き方(質問・指示の出し方)を知っているとしよう。しかしその生徒が、偏り・ハルシネーション・倫理的な問題が出力内容に含まれているかどうかを見極められるとは限らない。もしかしたら、AIを安全に使用する方法も知らないかもしれない。

Preplyのチーフブランドオフィサー、ソフィア・タバレスは、筆者との会話の中でこう述べていた。「AIは、生徒の間で広く使われているツールで、80%が学業でAIを活用していると答えている。この傾向は、特に英語、言語学、歴史など言語系の科目で顕著だ。しかし、AIは利便性や情報への素早いアクセスを可能にする一方で、頼りすぎると教材の内容に関する理解が浅くなる恐れがある」。

advertisement

彼女はまた、「ChatGPTのようなツールが、アイデアを生み出したり、概念を明確にする際の手助けにはなるが、人間の教育者が備える感情的知性(EQ)、柔軟性、励ましは再現できない」と指摘した。「意味のある学びは、生徒が難しい内容に主体的に取り組むときに得られるものだ。そしてそれは、生徒に問いを促し、自信を育てる人間の教師がいるときにこそ最も効果的だ。だからこそAIは、教師など熟練した人間の指導者の代わりではなく、あくまで補助として捉えるべきだ」。

「AIを使いこなせる」という自信の落とし穴

Preplyの調査によると、生徒と保護者の90%が「責任を持ったAIの利用に、ある程度の自信がある」、もしくは「非常に自信がある」と答えていた。この楽観的な見方は心強いが、ここで改めて問うべきは、「一体何に対しての自信なのか?」という点だ。本当の意味での「準備ができている」状態とは、以下の事柄を理解していることを意味する。

・AIを信頼すべき場面と、検証が必要な場面の違い

・オリジナリティを失わずに効果的にプロンプトを書く方法

・情報源を明示するツールと、そうでないツールの違いがなぜ重要なのか

・AIに入力したデータが、その後どう扱われるのか

そして、すべてのユーザーが自問すべき、より深い問いが下記のものだ。

・どの程度のAI利用が「多すぎる」のか?

・あなた、そしてあなたの息子や娘は、どうすれば安全にAIを使用できるか?

・あなた、またあなたの息子や娘にとって、AIが「唯一の友」になることなく、豊かな人生を歩めるようにするには何をすればいいか?

こうしたAIに関する基本的な理解がなければ、私たちの自信は慢心につながりかねない。

保護者の方針が生む、AI教育における格差

AIが学びに深く組み込まれるにつれて、新たな文化的断絶が生まれている。一部の保護者は明確な一線を引き、子どもが18歳になるまでChatGPTのようなAIツールを使わせないと決めている。これは、かつてのフェイスブックやスマートフォンに課された制限と似ている。また、他の保護者はその真逆のアプローチを採用し、ほとんど監督せずに子どもに自由にAIを使わせている。

The Digital Economistのエグゼクティブフェローで、学校コミュニティの支援者でもあるミッキー・チャンドラは、保護者が子どものAI利用をほとんど監督しない場合のリスクについて次のように語っている。

「プライバシー、またセンシティブな情報の共有に関する懸念がもちろんある。また倫理的な問題は保護者にはずっと見えにくく、理解されてもいない。ChatGPTを使う子どもの多くは、友だちと話をしているようだと感じており、AIからアドバイスを受けることにまったく抵抗がない。こうしたアプリは、ユーザーとのエンゲージメントを最大化することを目的として設計されているため、子どもは簡単にのめり込んでしまう。その結果、ChatGPTと偽りのつながりの感覚を育んだり、ボットに過剰に依存したり、同世代との直接的な交流に興味を失ったりする恐れがある。子どもは、ChatGPTとのやり取りが安全かどうか、信頼できるかどうかを見極める力を持っていない」。

だからと言って、子どもがAIにアクセスすることを完全に禁止すると、重要なデジタルリテラシーの習得が遅れることになりかねない。一方で、保護者の監督なしに自由に使わせると、AIへの依存、誤情報の盲信を引き起こし、学業での不正を生むおそれもある。

ここで進むべき方向性は、保護者がAIの使い方を子どもと一緒に探っていくことにある。保護者は、子どもにAIが出してきた情報の出所を尋ねたり、独自の考えを促したり、責任ある使い方の手本を示したりすることが重要だ。

次ページ > 単なる回答生成から「個別指導AIチューター」へ

編集=上田裕資

タグ:

advertisement

ForbesBrandVoice

人気記事