それによると、生成AI(対話型AI・ChatGPT)の活用状況についての問いに対し、「活用方針を検討している段階」が36.9%、「組織方針・社内ルールのもと、対話型AI・ChatGPTが活用されている」が30.1%という結果だった。一方で「組織方針・社内ルールのもと、対話型AI・ChatGPTの活用は禁止されている」が1.9%と、リスクを鑑みて禁止しているところもあるようだが、約7割弱が生成AIの活用に前向きであることがわかる。
対話型AIやChatGPT活用に関する社内での教育状況については、「特に教育を行う予定はない」が36.9%とトップだったが、「社内での教育・育成方法を検討中である」が23.3%、「社内で教育(研修や個人学習等)を実施している」が20.4%と、約4割は社内教育を行う方向のようだ。
生成AIの活用に関する課題は何かとの問いには、「従業員の対話型AI・ChatGPTに関するリテラシー不足」が45.6%でトップ。「活用をどのように促進すればいいかわからない・施策が不足している」が35.9%、「活用による情報漏洩の懸念」が35.9%と続いており、生成AIを利用したときのリスクや従業員へのどう浸透させるべきか懸念を抱いているところが多いようである。
生成AIを使うことで、情報漏洩のリスクは0ではない。たとえば、社内FAQを作ろうと対話型AIを利用しようとすれば、社内の情報を食わせる必要があり、ネットワークの経由によっては情報漏洩の危険がある。またChatGPTなどで生成されたものが、正しいものなのか、著作権の心配はないのかなど、利用する側のリテラシーも必要になってくる。
企業が生成AIを活用することで作業効率のアップを図れるものの、そういったリスクを理解していないと非常に危険だ。社内教育・育成することで、そうしたリスクを低減させ、うまく生成AIと付き合うようにすることが、今求められている。
出典:日本能率協会マネジメントセンター「企業の対話型AI・ChatGPTの活用状況」より