「責任あるAIの原則」は現場の課題に追いつけるか
米マイクロソフトのチェアマン兼CEOであるサティア・ナデラ氏は今後も同社のあらゆる製品にAIを組み込み、ビジネスやユーザー体験を革新する考えを表明している。一方ではAIの倫理問題にも目を向けて、早期からセキュリティ・プライバシー、公平性、信頼性と安全性など6つの観点から「責任あるAIの原則」を定めて、マイクロソフトの製品やサービスを「AI対応」にする際のガイドラインとしてきた。今後ユーザーによるプロダクトの利用が急速に拡大した時に、マイクロソフトが定める「責任あるAIの原則」も迅速かつ柔軟な対応が求められそうだ。マイクロソフトは「GitHub Copilot」という、人によるコンピュータプログラミングをOpenAIのCodexが支援する開発ツールを一般向けとビジネス向けの両方に提供を開始している。メディアセミナーの参加者からは、AIの支援によりエンドユーザーが作成したコードについて、バグやセキュリティホールなどのリスクを検証するツールがGitHub Copilotに実装されているのかを訊ねる声が寄せられた。対してマイクロソフトは、現在はコードの正当性について最終チェックは人間が行う必要があると回答した。
プログラミングに携わるエンジニアをサポートするマイクロソフトの「GitHub Copilot」
ジェネレーティブAIについては、学習元の情報に誤りや偏りが含まれる場合ときにこれらを増幅して出力する危険性が指摘されている。「新しいAI」による振る舞いを正しく制御するために必要な技術と倫理観を、これからは多くの企業と人が共有しながら歩みを慎重に前進させることも大事ではないだろうか。
連載:デジタル・トレンド・ハンズオン
過去記事はこちら>>