Column

コラム
TOP
ChatGPTを業務利用する際の社内ルール整備と法的責任:中小企業が今すぐやるべきこと

2026/03/25

AI・IT法務

ChatGPTを業務利用する際の社内ルール整備と法的責任:中小企業が今すぐやるべきこと

はじめに:生成AI活用は「便利」だけでは済まない時代へ

ChatGPT、Gemini、Copilotなど、生成AIツールの業務活用が中小企業にも急速に広がっています。文書作成、メール対応、議事録の要約、マーケティングコピーの生成——確かに業務効率は劇的に向上します。

しかし、弁護士として企業法務に携わっていると、最近は「生成AIを使って起きたトラブル」の相談が増えてきました。取引先の機密情報をAIに入力してしまった、AIが生成した文章に著作権上の問題があると指摘された、社員が顧客の個人情報をプロンプトに貼り付けていた——こうした事例が実際に発生しています。

「うちの社員はそんな使い方はしていないはず」と思う経営者も多いでしょう。しかし、明文化されたルールがなければ、社員は「問題ないと思って」使います。問題が発覚したときに「知らなかった」では、法的責任を免れることはできません。

本記事では、中小企業が生成AIを安全・適法に業務利用するために、今すぐ整備すべき社内ルールと法的リスクの全体像をわかりやすく解説します。

第1章:生成AI業務利用の主な法的リスク4類型

まず、生成AIを業務利用する際に問題となりうる法的リスクを整理しておきましょう。大きく分けると以下の4つに分類されます。

①著作権侵害リスク

生成AIは膨大なデータを学習して文章・画像・コードを生成しますが、その出力物が既存の著作物と類似している場合、著作権侵害となる可能性があります。特に画像生成AIでは、特定のアーティストのスタイルに酷似した画像を生成できてしまうため、実際に訴訟事例も海外では生じています。

また、AIが生成した文章をそのままWebサイトや提案書に使った場合、元となった著作物の無断複製となるリスクもゼロではありません。現状、日本の著作権法には生成AIに関する明確な規定は整備途上ですが、「類似性」と「依拠性」の判断次第では侵害と認定されうる点に注意が必要です。

②個人情報保護法違反リスク

最も危険なのが、顧客や従業員の個人情報をAIツールにそのまま入力してしまうケースです。多くの生成AIサービスは入力データを学習に利用する設定になっており(オプトアウト設定をしない限り)、入力した個人情報が第三者に漏洩する可能性があります。

個人情報保護法では、個人情報を第三者に提供する際には原則として本人の同意が必要です。AIサービスへの入力が「第三者提供」に該当すると判断された場合、同意なしに個人情報を入力することは法令違反となります。個人情報保護委員会も生成AIへの個人情報入力に関する注意喚起を行っています。

③営業秘密・機密情報の漏洩リスク

取引先から受け取った機密資料、社内の経営計画、未公表の製品情報——こうした情報を生成AIに入力することで、情報が流出するリスクがあります。特にクラウド型の生成AIサービスは、入力データがサーバー(多くは海外)に送信されるため、不正競争防止法上の営業秘密として保護されていた情報が、意図せず外部に開示された状態になりかねません。

取引先との秘密保持契約(NDA)に「第三者への開示禁止」が定められていれば、AIへの入力がNDA違反となる可能性もあります。

④AI出力物の信頼性・誤情報リスク

生成AIは「もっともらしい嘘(ハルシネーション)」を出力することがあります。法律的な内容、数値データ、事実関係について誤った情報を生成する場合があり、これをチェックせずに取引先や顧客に提供した場合、契約上の責任や不法行為責任を問われる可能性があります。

第2章:社内ルールとして定めるべき5つのポイント

リスクを理解したうえで、今すぐ着手すべき社内ルール整備の具体的な内容を解説します。

①入力禁止情報の明示

最も重要なのは、「生成AIに入力してはいけない情報」を具体的にリストアップして周知することです。以下を参考に、自社の実情に合わせて定めてください。

  • 顧客・取引先・従業員の個人情報(氏名、住所、メールアドレス、電話番号、マイナンバー等)
  • 取引先から受領した機密情報・NDA対象情報
  • 未公表の経営情報・財務情報・M&A関連情報
  • 自社の営業秘密・ノウハウ・設計情報
  • 社内の人事・給与情報

「どこまでが機密か」の判断が難しい場合は、「外部に出して問題ない公開情報のみ入力可」という原則を設けると運用しやすくなります。

②利用可能なAIツールの指定

社員が各自の判断で様々なAIツールを使い始めると、リスク管理が困難になります。会社として利用を認めるツールを指定し、それ以外の利用は事前申請制にすることが望ましいです。

指定の際には、そのツールのプライバシーポリシーを確認し、「入力データを学習に使用しない」「データを暗号化して保管する」「EU一般データ保護規則(GDPR)準拠である」などのセキュリティ要件を満たすものを選びましょう。ChatGPT Enterpriseや企業向けMicrosoft 365 Copilotは、デフォルトでデータを学習に使用しない設定となっており、企業利用に適しています。

③出力物の利用ルールの設定

AIが生成した文章・画像・コードについて、以下のルールを定めておくことをお勧めします。

  • 必ず人間が内容を確認・検証してから使用する(特に法的・財務的・医療的な内容)
  • 外部に提出する文書にAI生成であることを開示するかどうかの基準を定める
  • 著作権の観点から、AI出力物の二次利用・商用利用の範囲を確認する
  • コード生成の場合は、既存ソフトウェアのライセンス侵害がないか確認する

④従業員教育と周知徹底

ルールを作るだけでなく、全従業員への教育が不可欠です。特に伝えるべきポイントは以下の通りです。

  • 生成AIに入力した情報は外部サーバーに送信されること
  • 個人情報・機密情報の入力が法令違反やNDA違反につながりうること
  • AIの出力は必ずしも正確ではなく、自分で検証する責任があること
  • ルール違反があった場合は速やかに報告すること

入社時の研修や年1回の定期研修に組み込むとともに、ルールを記したチートシートをデスクに貼るなど、日常的に意識できる環境を整えましょう。

⑤違反時の対応手順と報告体制

万が一、禁止情報を入力してしまった場合に備え、対応手順を事前に決めておくことが重要です。

  • 発覚した場合の上長・情報セキュリティ担当への即時報告ルート
  • 当該AIサービスへのデータ削除依頼の手順
  • 個人情報漏洩の場合の個人情報保護委員会への報告義務(1000件超の漏洩等は義務)
  • 取引先・顧客への通知・謝罪対応の手順

第3章:法的責任の所在——会社と従業員、どちらが責任を負うか

社員が社内ルールを無視してAIに機密情報を入力し、情報が漏洩した場合、法的責任はどこに帰属するのでしょうか。

会社の責任

使用者責任(民法715条)の観点から、従業員が業務中に第三者に損害を与えた場合、原則として会社も損害賠償責任を負います。「社員が勝手にやった」では免責されません。ただし、会社が相当の注意を払っていた場合(適切な教育・ルール整備・監督を行っていた場合)は免責される余地があります。

つまり、今回述べたような社内ルールを整備し、従業員教育を実施していたという事実が、万が一の際の会社の責任軽減につながるのです。逆に言えば、何もしていなかった会社は責任を問われやすくなります。

従業員個人の責任

故意または重大な過失がある場合、従業員個人も損害賠償責任を負う可能性があります。また、不正競争防止法上の営業秘密侵害行為には刑事罰も定められています(10年以下の懲役または2000万円以下の罰金)。社員が悪意なくルールに違反した場合でも、民事上の責任を問われることはありえます。

従業員が安心してAIを活用できるよう、明確なルールとサポート体制を整えることが、会社にとっても従業員にとっても重要です。

第4章:就業規則・契約書への反映方法

口頭やメールでの周知だけでは不十分です。法的効力を持たせるために、就業規則や関連規程への明文化が必要です。

就業規則・情報セキュリティ規程への追加

既存の「情報セキュリティ規程」や「機密情報管理規程」がある場合は、生成AIに関する条項を追記します。ない場合は新たに「生成AI利用規程」を策定し、就業規則の附属規程として位置づけることが望ましいです。

規程に盛り込む内容の例:

  • 生成AIの定義と対象ツールの範囲
  • 利用目的の限定(業務利用のみ)
  • 入力禁止情報の列挙
  • 出力物の検証義務
  • 違反時の懲戒規定
  • 新しいAIツールを利用する場合の申請手続き

NDA・秘密保持契約への追記

取引先とのNDAを新規締結または更新する際には、生成AIへの情報入力を「第三者への開示」として扱う旨、または明示的に禁止する条項を追加することを検討してください。既存のNDAには規定がないことがほとんどであるため、取引先と認識を合わせておくことが重要です。

雇用契約・業務委託契約への反映

フリーランスや業務委託先への情報提供が伴う場合は、委託契約書にも生成AIの利用制限を明記しておくことをお勧めします。「委託業務において受領した情報を生成AIツールに入力することを禁ずる」といった条項です。

第5章:今すぐ取り組むべきアクションリスト

最後に、中小企業の経営者・管理職が今すぐ着手できる具体的なアクションをまとめます。優先度順に並べましたので、上から順に取り組んでみてください。

  • 【今週中】 社内で利用されている生成AIツールの棚卸しを行う。何が使われているか把握する。
  • 【今月中】 入力禁止情報リストと基本的な利用ガイドラインを作成し、全従業員にメールまたは朝礼で周知する。
  • 【1〜2ヶ月以内】 情報セキュリティ規程または生成AI利用規程を整備し、就業規則の附属規程として位置づける。
  • 【2〜3ヶ月以内】 全従業員向けに生成AIリスクに関する研修を実施する(外部講師への依頼も選択肢)。
  • 【随時】 取引先との新規NDA締結・更新時に生成AI利用制限条項を追加する。
  • 【随時】 生成AIに関する法改正・ガイドライン更新を定期的にチェックし、社内ルールを見直す。

内閣府・経済産業省・個人情報保護委員会などから生成AIに関するガイドラインが続々と公表されています。特に経済産業省の「AI事業者ガイドライン」や個人情報保護委員会の「生成AIサービスの利用に関する注意喚起」は参照すべき文書です。

おわりに:「ルールがない」こと自体がリスク

生成AIの活用はもはや避けられない流れです。禁止することが現実的でない以上、リスクを理解したうえで「使いこなすルール」を整備することが経営者の責務です。

「うちの会社には関係ない」と思っているうちに、一人の社員の不注意で取引先の信頼を失い、損害賠償請求を受ける——そうした事態を防ぐために、今こそ手を打っておくべきです。

社内ルールの整備、就業規則の改定、取引先とのNDA見直しなど、生成AI時代の法的リスク対応についてお悩みの場合は、企業法務を専門とする弁護士にご相談ください。当事務所では、中小企業の実情に合わせた現実的なルール整備をサポートしております。