AI

2024.05.18 16:00

AIに就業規則を書いてもらうリスク、米国各地でトラブル事例も

木村拓哉
1785

Shutterstock.com

今年初め、人事コンサルタント会社のHumani(ヒューマニ)でCEOを務めるカーリー・ホルムは、ニューヨークに本社を置くある企業からのコンサルティングの依頼を受けた。その会社は、従業員が職場におけるハラスメントを申し立て、事態が急速にエスカレートしてしまったという。

ホルムが、就業規則の提出を求めたところ、担当者はやや躊躇して次のよう述べたという。「お渡しすることは可能ですが、内容はChatGPTが書いたものです」

ホルムは、これまでにクライアントがAIで生成した就業規則を数多くレビューしていたが、今回のケースには大きな問題があった。それは、ハラスメント防止に関するポリシーが全く記載されていなかった点だ。

「セクシャル・ハラスメントや職場内暴力に対するゼロ・トレランス・ポリシーなど、適切なポリシーが定められていない場合、雇用主が調査対象となり、罰せられる可能性があります」と彼女は言う。

フォーブスが人事・給与サービスのプロバイダー4社にインタビューを行った結果、就業規則や職場環境の指針、雇用契約書、退職合意書など、法的拘束力を持つ文書の作成にAIを活用する企業が増えていることがわかった。そのような企業と仕事をしたことのある人事コンサルタントによると、ChatGPTなどのAIを使ってこれらの文書を作成した結果、深刻な法的・経済的リスクに晒されているケースが複数あるという。

人事コンサルティング会社Iris(アイリス)のダニエル・グレイスによると、カリフォルニア州を拠点とする従業員200人規模のある企業は、AIを使って会社の就業規則を作成したが、全社に配布した後に州法で定められている残業規定が含まれていないことに気づいたという。結局この会社は、多額の残業代を支払う必要に迫られた。

別の事例では、ある英国企業の人事チームがマイクロソフトのBingに実装されたAI、Microsoft Copilotを使って退職合意書を作成したが、重要な情報が欠如していることに気付かぬまま、従業員の顧問弁護士に送付してしまったという。
次ページ > AIに頼りすぎるのは危険

編集=上田裕資

タグ:

ForbesBrandVoice

人気記事