2. 強制された凡庸さ
ChatGPTは一般的なパターンへと向かう圧縮機能を使う。枠にとらわれない思考が必要な時、ChatGPTはあなたを凡庸なものへと引き戻す。だが人間の発見には領域を超えた学びと学習棄却が求められる。
「新たな発見をしようとする瞬間、LLMはハルシネーションを起こす。賢そうなテキストを出力するよう訓練されているからだ」とイナムは言う。常識に異議を唱えるようChatGPTに求めると、後退を目にすることになる。ChatGPTは大胆な発想をやめるよう説得する。大胆なアイデアは訓練データに頻繁に現れないからだ。大胆な発想にはあなたの脳が必要だ。
あなたの競争相手も同じ質問をChatGPTに投げかけ、同じ答えを得ている。業界を制するのは自ら考える創業者だ。
3. 推論できない
現代のAIはパターンを予測するが、意味を理解しない。思考の連鎖とは手順を示すことだ。推論の連鎖とは枠組みに基づく論理を逆方向にたどることだ。ChatGPTは統計に基づいた予測を行うブラックボックスであるため、推論の連鎖はできない。
グーグルでエンジニアリング・フェローを務め、2024年にノーベル賞を受賞したジェフリー・ヒントンは、AIの根本的な問題が解決されない限りさらなる開発に反対する立場を表明している。重要な意思決定をAIに過度に依存することは危険だと警告する。これらのシステムは誤りを犯し、操作され、予測不能な行動を取る可能性があり、複雑な現実世界の選択に必要な人間の文脈や判断力を欠いていることを理由に挙げている。
あなたのビジネスが危うい状態にある時、必要なのは合理的な思考であって、何が正しそうかを推測するシステムではない。
4. 中毒性を意図した設計
シリコンバレーで開発された技術システムは使用をやめられないよう設計されており、ChatGPTも例外ではない。米マサチューセッツ工科大学(MIT)の研究では、AIをかなり頻繁に使う人は基本的な記憶の呼び起こしに苦労することが示されている。プロンプトによる対話とは、思考を機械に委ねることを意味する。戦略のためにAIを使うほど、戦略的な思考力は弱まる。
チャットボットではなく人間の可能性に依存すべき、とイナムは言う。「AIのシステムでは新たな知識の発見や人間の主体性の維持はできない」。あなたの強みは考え方にあり、テキスト生成の速さではない。判断を外部に委託すれば、成功する創業者と失敗する創業者を分けるものを失う。
簡単な答えを求めてプロンプトを入力するたびに、現在そして将来も困難な決断を下す能力が低下する。


