福岡社会保険労務士法人 広報◆
福岡社会保険労務士法人の広報チームです。難しくなりがちな労務・人事のテーマを、できるだけ分かりやすく、すぐに役立つ形でお届けします。法改正、勤怠・給与のDX、実務のお悩み解消など、日々の業務に役立つ情報を発信しています。

2026年現在、ChatGPTをはじめとする生成AIの業務利用は、もはや一部の企業だけのものではなくなりました。資料作成、メール文案、採用業務、社内ナレッジ整理など、さまざまな場面で「当たり前に使われている」状況です。
しかし一方で、現場からは「便利だから使っていたら、思わぬトラブルにつながった」という声も増えてきています。特に人事労務の領域では、情報管理・評価・指導といったセンシティブな業務と密接に関わるため、リスクの影響が大きくなりやすいのが特徴です。
実際、企業側でも生成AIの利用ルール整備に着手する動きが加速しており、いわゆる「AI利用ガイドライン」や社内ルールの整備ニーズはここ1〜2年で急激に高まっています。
では、どのような点に注意すべきなのでしょうか。本記事では、人事労務担当者の視点で押さえておきたい主なリスクと、実務上の対応の考え方を整理します。
まずは一度、自社の状況を振り返ってみてください。生成AIの利用ルールは明確になっていますか。そして、その内容は就業規則や既存の社内ルールときちんと連動しているでしょうか。
目次
生成AIのリスクは多岐にわたりますが、労務の観点から特に重要なものを整理すると、いくつかの共通パターンが見えてきます。ここでは実務で相談の多いポイントを中心に見ていきます。
最も深刻なのが情報漏洩の問題です。従業員が業務効率化のために、顧客情報や人事データ、営業資料の内容をそのままAIに入力してしまうケースは少なくありません。
例えば、顧客対応メールの作成をAIに依頼する際に、具体的な顧客情報を入力してしまうと、それが外部サービス上に蓄積される可能性があります。結果として、個人情報保護や秘密保持義務の観点で重大な問題に発展する恐れがあります。
AIが生成した文章や画像が、既存の著作物と類似しているケースも無視できません。特に営業資料やWebコンテンツとして利用した場合、意図せず著作権侵害となるリスクがあります。
社内で「AIが作ったから問題ない」と誤解されがちですが、最終的な利用責任は企業側にあります。この点は従業員にも明確に理解してもらう必要があります。
生成AIを使って部下へのフィードバック文を作成するケースも増えていますが、その内容を十分に確認せずに使用すると、過度に攻撃的な表現や不適切な言い回しが含まれることがあります。
結果として、パワハラやモラハラと受け取られる可能性があり、「AIが作ったから」という理由で責任が軽減されることはありません。あくまで発信者である上司の責任となります。
採用選考や人事評価にAIを活用する場合、過去データに基づく偏りがそのまま反映されることがあります。性別や年齢などの属性に基づく不利益が生じた場合、均等・均衡の観点から問題となる可能性があります。
AIによって業務効率が上がる一方で、「短時間でできるはず」というプレッシャーが生まれ、見えない残業や過重労働につながるケースもあります。
また、AIに依存することでスキル習得が進まず、結果的に業務負荷が偏るといった組織的な課題も見えてきています。
AIの誤情報(いわゆるハルシネーション)によって誤った判断をしてしまうケースや、従業員間でAIスキルに差が出ることで評価の公平性に影響が出るケースもあります。
こうしたリスクは、従来の就業規則や情報管理規程だけでは十分にカバーしきれない場面が増えています。たとえば「機密情報を漏らしてはいけない」という抽象的な規定はあっても、「AIへの入力」という具体的な行為まで想定していないケースが多いのです。
そのため、生成AIに特化した利用ルールやガイドラインを別途整備する企業が増えています。これにより、従業員が「何をしてよいのか、何がNGなのか」を具体的に判断できるようになります。
また、社内ルールが整備されていることは、取引先や顧客からの信頼にも直結します。特に情報管理に厳しい業界では、「AI利用ルールの有無」が取引条件に影響するケースも出てきています。
では、実際に社内ルールを整備する際には、どのような点を意識すべきでしょうか。ここでは具体的な条文ではなく、設計の考え方にフォーカスしてお伝えします。
まず重要なのは、曖昧な表現を避けることです。たとえば「適切に利用すること」という表現だけでは、現場での判断にばらつきが生じます。
どのような情報は入力してよいのか、どこからが禁止なのかを、具体的に示すことがポイントになります。
AIの出力をそのまま使うのではなく、必ず人が確認・修正するという前提を明確にする必要があります。
AI利用ルール単体で完結させるのではなく、服務規律や懲戒規定と連動させることで、実効性が高まります。違反時の対応も含めて一体設計することが重要です。
ルールを作るだけでは不十分です。現場で正しく理解され、運用されるためには、定期的な研修や周知が不可欠です。
ルールを整備した後は、それをどう運用するかが重要になります。形だけの規程にならないためには、いくつかの工夫が必要です。
まず、導入時には経営層の理解を得たうえで、全社的に周知を行うことが欠かせません。そのうえで、実際の業務でどう使うかを具体的に示すことが現場定着の鍵になります。
さらに、AIの技術や社会的ルールは変化が非常に速いため、定期的な見直しも前提とするべきです。半年から1年に一度は内容をアップデートする運用が現実的でしょう。
生成AIは、企業にとって大きな可能性を持つ一方で、使い方を誤ると労務リスクを一気に高める側面もあります。
重要なのは、「使うか、使わないか」ではなく、「どう安全に使うか」という視点です。そのためには、自社に合ったルールを整備し、現場で運用できる形に落とし込むことが欠かせません。
とはいえ、自社だけでリスクを整理し、適切なルールに落とし込むのは簡単ではありません。業種や企業規模によって注意すべきポイントも変わってきます。
もし「どこまでルール化すべきか判断が難しい」「自社に合った形にカスタマイズしたい」と感じられている場合は、一度専門家の視点を取り入れてみるのも一つの方法です。自社の状況を見直すきっかけとして、ぜひ検討してみてください。
無料相談・お問い合わせ
copyright 福岡社会保険労務士法人 allrights reserved.