赤坂国際会計事務所

責任あるAI利用原則の規範化と取締役善管注意義務 ── サイバーセキュリティと経営責任の統合的展開

2026.04.23UP!

  • blog
  • AIガバナンス
  • AI事業者ガイドライン
  • EU AI法
  • コーポレートガバナンス
  • 内部統制
  • 取締役責任
  • 善管注意義務

リード

企業における AI システムの導入は、「競争優位のための選択」から「責任ある利用のための設計」の問題へと重心を移しつつある。国際原則・EU 規制・国内ガイドラインの複数のレイヤーで「責任ある AI 利用原則」の規範化が進行し、これらは倫理指針を超えて、会社法上の取締役の善管注意義務の内容を構成する規範的参照点として機能し始めている。

本稿は、この規範化が取締役に対して「選択責任」と「不作為責任」という二つの責任を同時に発生させる構造を、日本判例法理との接続を通じて論じる。AI エージェントやフィジカル AI の進展により、被害類型は財産的損害の甚大化と身体・生命侵害の双方に及び、合理的に期待される管理水準そのものが引き上がる。本質的な課題は、事前文書化や事前準備が、事後における経営判断評価を決めるという点にある。

1. AI リスクの構造変化と「責任ある AI 利用原則」の規範化

1.1 AI リスクの被害類型が変わる

生成 AI が企業実務に本格的に入ってきた初期の段階では、想定される被害類型の中心は、誤出力による業務上の誤判断、名誉毀損、著作権侵害、機密情報漏えい、そして軽度から中程度のサイバー事故であった。主たる保護法益は財産・信用・プライバシーであり、被害は原則として人間のオペレーター経由で発生するため、発生速度や規模にも一定の限界があった。

ところが、AI エージェントやフィジカル AI が本格的に導入される段階では、被害類型は構造的に変化する。変化は財産面と身体・生命面の両方において観察される。

財産的被害の甚大化 は、AI エージェント時代の中核的論点である。権限を持って自律的に動作する AI エージェントに、発注・送金・契約締結・リソース配分の権限を委譲する場面では、誤判断や権限逸脱による直接的な財産損失が現実的な被害類型となる。人間のオペレーター経由と比較すると、損失の発生速度・規模・検知困難性はいずれも桁違いに上がる。さらに、AI エージェント間の連鎖(Agent-to-Agent)による広範なシステム障害、自動化された大量処理による市場・取引先への波及損害、一度の顕著な事故によるブランド・信用の構造的毀損、規制違反に伴う制裁金までを視野に入れる必要がある。とりわけ EU AI Act 上は、違反類型に応じて、最大 3,500 万ユーロまたは全世界売上 7%(Article 5 の禁止行為違反)から、最大 1,500 万ユーロまたは全世界売上 3%(高リスク AI 関連義務違反)までの段階的制裁が想定されている。AI 事故が個人データの漏えいを伴う場合には、別枠として GDPR(EU)・個人情報保護法(日本)上の報告義務・制裁の対象となり得る。

身体・生命への接続 は、フィジカル AI の本格導入とともに現実的な論点となっている。物理空間で動作する AI が設備損傷や人身事故を引き起こし得ることは、既に政府文書のレベルでも明示されている。日本の AI 事業者ガイドライン第 1.2 版(総務省・経済産業省、2026 年 3 月 31 日公表)は、代表的リスクとして「生命等に関わる事故の発生」を明記した。AI エージェントの権限逸脱による業務妨害や設備損傷も、これに接続する類型として理解される。

財産被害と身体被害は、多くの事案で同時発生する点にも留意が必要である。フィジカル AI の事故は、人身被害と同時に多額の製造物責任・事業停止・リコールコストを発生させる。金融業務や自律発注業務における AI 事故は、財産被害と同時に顧客信用の毀損、規制制裁、業法上の責任を生じさせる。したがって、フィジカル AI を直接運用しない業種であっても、財産被害の甚大化という側面において、被害類型の構造変化は等しく射程内に入る。AI ガバナンスの議論は、もはや「誤出力と機密漏えい」で閉じていない。

1.2 被害類型の上昇が、合理的に期待される管理水準を引き上げる

情報漏えいが中心の世界と、財産被害甚大化・身体・生命侵害を含む世界とでは、取締役に期待されるリスク認識の深度、監視体制の密度、ログ保存の厳格性、異常時のエスカレーションの迅速性は同一ではない。これは新しい法理が生まれるというよりも、善管注意義務の対象となる保護法益の重さと、被害規模の桁変化から導かれる当然の帰結である。

重大な法益や巨額の財産損失が争点となる事案では、予防的・保護的な判断が求められる程度が、従来の情報管理中心の事案より高くなる。この構造的事実が、AI ガバナンスにおける合理的に期待される管理水準を、被害類型の構造変化に応じて引き上げる。

1.3 引き上がった管理水準を客観化する素材としてのソフトロー

ここで初めて、国際原則・EU 規制・国内ガイドラインの意味が理解される。これらは「法そのもの」ではない。しかし、何が予見可能であったか、どのような対策が実行可能であったかを示す証拠群として機能し、会社法における経営判断の妥当性の審査素材となる。

国際レベルでは、OECD AI Principles(2019 年、2024 年更新)、G7 広島 AI プロセスにおける国際指針及び国際行動規範(2023 年)、UNESCO「AI 倫理勧告」(2021 年)が、透明性、公平性、説明責任、人間中心性、安全性といった原則群をめぐる共通の参照枠を形成しており、各主体に何が合理的に期待されるかを判断する際の重要な基礎資料となっている。

EU レベルでは、EU AI Act(Regulation (EU) 2024/1689)が 2024 年 8 月 1 日に発効し、段階的な施行が進行中である。高リスク AI システム向け義務の中心的適用開始は 2026 年 8 月 2 日であり、一部カテゴリや経過措置の解除は 2027 年以降に段階的に続く。同規則は Article 2 により域外適用が明記されており、EU 市場に AI システムを提供する事業者、あるいは出力が EU 域内で使用される AI システムを運用する事業者にも適用される。違反時の制裁金は前述の通り段階的に設計されている。

日本国内では、AI 事業者ガイドライン(第 1.2 版、2026 年 3 月 31 日公表)が、総務省と経済産業省の共同により運用されている。第 1.2 版では、AI エージェント・フィジカル AI の進展を踏まえた実務的整理が進められた。あわせて、人間の判断の介在、人間監督、トレーサビリティ、文書化・説明といった既存の中核原則が、引き続き重要な管理要請として位置づけられている。米国の NIST AI Risk Management Framework(2023 年)も、実務における参照基準として定着している。

これらは強制力を持たないソフトローであるが、規範化が進行する過程で、裁判所が「合理的に期待される水準」を認定する際の客観的な審査素材として機能する性格を帯びていく。

1.4 規範化のギアチェンジ・タイムライン

2026 年 8 月は、EU AI Act 高リスク AI 関連義務の中心的適用開始と、日本 AI 事業者ガイドライン第 1.2 版の運用フェーズ入りが重なる、規範化の転換点として位置づけられる。2027 年以降は、EU AI Act の経過措置解除が段階的に続き、規範の射程は実務の隅々に浸透していく。

取締役にとっての含意は明確である。規範形成期(現在〜2026 年前半)の段階で判断書面化を完了させ、規範適用期(2026 年後半〜)に体制が間に合っている状態を作る必要がある。規範が適用局面に入った後に対応を始めるのでは、事後評価において「適切な時期に準備を開始していなかった」という評価を受けるリスクが高まる。

2. サイバーセキュリティと AI ガバナンスの統合構造

AI ガバナンスの議論は、サイバーセキュリティの管理体制論と重なる射程を持つ。両者を独立領域として扱うのではなく、一つの規範的枠組みの二側面として理解する視座が、取締役の体制整備判断においては有効である。

AI 側面における中核的論点は、モデルの公平性、出力の説明可能性、人間の判断の介在、データガバナンスといった、AI システムそのものの設計・運用に関わる要請である。これに対して、サイバー側面の論点は、プロンプト・インジェクション、モデル・ポイズニング、AI を利用した高度化する攻撃への対応といった、AI システム及び AI を含む情報システム全体の防御に関わる要請である。両者は技術的には別領域に見えるが、取締役の体制整備義務の観点から見ると、同一の「責任ある AI 利用原則」が両面に及ぶという構造を持つ。

この統合的視座は、既存の国内規範にも反映されている。経済産業省サイバーセキュリティ経営ガイドライン Ver3.0(2023 年 3 月)は、サイバーセキュリティリスクを「自社のリスクマネジメントにおける重要課題」と位置づけ、経営者の認識水準を明示的に引き上げた。また、令和 2 年改正会社法施行規則は、企業集団における内部統制の構築義務を明確化しており、親会社の取締役が子会社を含むグループ全体の体制整備を担う責任範囲を明示している。AI ガバナンス体制の整備も、これらの延長線上で理解されるべき論点である。

3. 日本会社法における善管注意義務との接続

3.1 基幹判例の射程

取締役の AI ガバナンス体制整備義務を会社法上の善管注意義務として理解する際の足場となるのは、内部統制システム構築義務に関する既存の判例法理である。以下の三つの基幹判例が、その射程を規定している。

大和銀行事件(大阪地判平成 12 年 9 月 20 日判時 1721 号 3 頁)は、取締役の内部統制システム整備義務違反を正面から認定した事例である。同判決は、取締役がリスク管理体制を構築すべき義務を負うこと、そして他の取締役がその義務を履行しているかを監視する義務を負うことを、善管注意義務及び忠実義務の内容として位置づけた。

日本システム技術事件(最判平成 21 年 7 月 9 日判時 2055 号 147 頁)は、内部統制システム構築義務違反の有無について最高裁が初めて具体的な判断枠組みを示した判例である。同判決は、「通常想定される不正行為を防止し得る程度の管理体制」の整備を基準とした上で、「予見すべき特別な事情」が存在する場合には追加的な対応が求められるという二層構造を示した。

アパマンショップ HD 事件(最判平成 22 年 7 月 15 日判時 2091 号 90 頁)は、経営判断原則の枠組みを明示した判例である。同判決は、取締役の経営判断について、決定の過程及び内容に著しく不合理な点がない限り、善管注意義務違反とはならないという審査基準を示した。

これら三つの判例は、内部統制構築・通常想定されるリスクへの対応・経営判断原則という、AI ガバナンス文脈で直接参照される三つの論点それぞれについて、足場となる枠組みを提供している。

3.2 「運用可能な内部統制水準」としての管理体制

日本システム技術事件の「通常想定される不正行為を防止し得る程度の管理体制」という基準は、サイバーセキュリティ・AI ガバナンス領域に展開される際、以下の内容として理解されるべきである。

第一に、要求水準は「侵害ゼロ」の保証ではない。AI システムを運用する以上、誤出力・権限逸脱・外部からの攻撃を含むインシデントの完全防止は、技術的にも実務的にも不可能である。取締役に求められているのは、検知・報告・調査・通知・公表・再発防止という一連のフェーズを、法令上の時間制約内に回せる運用可能な内部統制水準である。

第二に、個人情報保護法上の時間制約 ── 速報 3 〜 5 日、確報 30 日、不正目的が疑われる場合は 60 日 ── が、平時からの体制整備水準を逆算的に具体化する役割を果たす。インシデント発生後にゼロから体制を組み立てることは実務上不可能であり、平時からの証拠保全、指揮命令系統、委託先対応、通知判断、監督当局対応の準備がなければ、法令対応そのものが破綻する。

第三に、AI の被害類型が身体・生命に接続する局面では、法令上の報告期限とは別に、実務上はより短時間での停止・隔離・現場保全・被害拡大防止が要求される。財産的被害が甚大化する局面でも、損失拡大の速度を踏まえた取引停止・権限剥奪・回収措置の即応性が求められる。

本記事の論点を AI 領域に展開すると、次のように整理できる。取締役に求められる管理体制は、「通常想定される AI 関連リスクを防止し得る程度の、運用可能な内部統制水準」として理解される。この水準を満たさない状態は、それ自体が内部統制構築義務違反を構成し得る。

3.3 「予見すべき特別な事情」のソース

日本システム技術事件が示す「予見すべき特別な事情」は、社内事情に限定されない。合理的経営者が入手可能な情報は、以下の四つのソースから客観化される。

第一に、自社の兆候・過去事例。自社内で観察された異常事象、過去のインシデント、内部からの指摘等である。

第二に、同業他社の事故・インシデント。報道や業界団体の情報共有を通じて把握可能な、他社における顕在化したリスクである。

第三に、法令・ガイドライン・業界標準の改正。規範的参照点の更新は、「何が合理的に期待される水準か」の客観的な指標となる。

第四に、ベンダーのリスク報告・脆弱性情報。AI システムの提供者から提供される技術的リスク情報、業界全体で共有される脆弱性情報である。

これら四つのソースを継続的にモニタリングしない体制は、事後評価において「予見可能性のソースを社内事情に限定した」という評価を受けるリスクを負う。その場合、同判例の「特別な事情」の基礎事情を構成する可能性があり、取締役の責任範囲を拡大させる要因となる。

3.4 重大事案における審査密度の上昇

生命・身体という重大法益が問題となる事案では、裁判所は予防・安全確保・人格権保護を重視する判断枠組みを取りやすい傾向がある。これは差止訴訟等の文脈で観察されてきた特徴であるが、重大法益事案における審査の基本的性質として、取締役責任訴訟における経営判断評価の局面でも同様の傾向を想定しておくのが安全である。

もっとも、財産的損害が甚大な事案においても、大規模事業停止、取引先への連鎖損害、市場影響、ブランド毀損が発生する場合には、経営判断原則の適用は厳格化される傾向がある。取締役責任訴訟においては、上級審が予見可能性・証明責任・制度整合性の観点から第一審判断を補正することもある(東京電力株主代表訴訟は、東京地判令和 4 年が 13 兆円の損害賠償を命じた後、東京高判令和 7 年がこれを取り消すという経過を辿った)。

含意は明確である。企業側は、上級審で補正されるかどうかに賭けるべきではない。第一審においても耐えうる、取締役による予防的な統制設計と文書化を整える必要性がある。AI エージェント・フィジカル AI 時代の取締役責任は、AI 倫理の延長としてではなく、重大事故・重大損失予防法務として設計する視座が有効である。

4. 選択責任と不作為責任の二分構造

「責任ある AI 利用原則」の規範化は、取締役に対して二つの責任を同時に発生させる構造を持つ。「選択責任」と「不作為責任」である。両者は独立ではなく、いずれの方向からも事後的に評価される構造の中で、取締役は意思決定を行うことになる。

4.1 選択責任 ── 積極的判断の合理性

選択責任は、取締役が積極的に行った判断の合理性が問われる局面である。具体的には、どの AI システムを採用するか、どのベンダーを選定するか、どこまでの権限を AI に委譲するか、といった意思決定がこれに該当する。

この局面で問われるのは、経営判断原則の一般的な審査基準である。すなわち、判断時点における入手可能情報の収集の妥当性、想定リスクの評価の適切性、代替案の検討の充実度、そして最終的な意思決定の過程及び内容の合理性である。アパマンショップ HD 事件が示した「決定の過程・内容に著しく不合理な点がない限り」という枠組みが、AI 採用判断にもそのまま妥当する。

4.2 不作為責任 ── 消極的判断の 3 層構造

不作為責任は、取締役が積極的な行動を取らなかったことが問われる局面である。これは一体の論点ではなく、以下の 3 層に分解して理解するのが適切である。

不評価責任 は、AI を導入するかしないか、どの業務にどの AI を使うか、代替的な統制手段で足りるかといった比較検討を適切に行わなかった場合の責任である。ここで問われているのは、「AI を導入する義務」ではない。導入するか否かの判断そのものは経営判断の領域であるが、評価・検討を行い、その判断過程を文書化する義務は、取締役の善管注意義務の内容として認められる。

不整備責任 は、AI を導入した後の監視体制、ログ保存、ベンダー管理、停止権限、エスカレーション経路といった運用体制を整備しなかった場合の責任である。これは典型的な内部統制・管理体制の問題であり、大和銀行事件型のリスク管理体制構築義務違反として構成される。前節で論じた「運用可能な内部統制水準」を満たさない状態は、この類型に該当する。

不更新責任 は、前節で整理した予見可能性の四つのソース(自社兆候、同業他社事故、規範更新、ベンダーリスク報告)を継続的にモニタリングしなかった場合の責任である。この責任類型は、モデル能力の上昇、AI エージェント化・フィジカル AI 化、規範の更新、インシデント発生後の再設計といった外部環境の変化に対する追随懈怠として具体的に発生する。モニタリングを怠ることで「予見可能性のソースを社内事情に限定した」という評価を受け、日本システム技術事件の「特別な事情」に該当する構造となる。

4.3 ログ・シミュレーション結果の事実認識化

AI システムの導入は、取締役の事実認識の範囲を技術的に拡張する側面を持つ。AI システムが事前検知能力を実装し、simulation 結果や anomaly detection 履歴を継続的に生成する場合、これらは事実認識の入手可能情報として客観化される。

その結果、事後的に「当時は知り得なかった」という抗弁が成立しにくくなる構造が生じる。「ログに兆候が記録されていた」「シミュレーションで警告が出ていた」という事実は、経営判断原則における「事実認識に不注意な誤りがあったか」の審査において、不利に作用する可能性がある。これは経営判断原則の保護範囲が、技術の進展によって狭まる方向への構造的変化である。

5. 取締役が取るべき統合的防御 ── 5 段階モデル

以上の論証を踏まえ、取締役が整備すべき体制を、5 段階モデルとして整理する。ここで重要なのは、5 段階は独立した対応の集合ではなく、「運用可能な内部統制水準」を構成する連鎖要素として設計されるべき点である。どの段階が欠けても、全体として合理的に期待される管理体制を満たしたことにならない。

第 0 段階 ── データマッピング

すべての判断の前提となる作業が、データマッピングである。AI システムが扱うデータの全フローを可視化することを内容とする。入力データ、出力データ、中間データの分類、個人情報・機密情報・営業秘密・第三者データの識別、保管場所・保管期間・アクセス権限の把握、国境を越える転送の有無、ログ・simulation 結果・anomaly detection 履歴の保管設計 ── これらが具体的な作業項目となる。

データマッピングが未了のまま後続段階に進むことはできない。個情法上の委託監督義務の射程、業法上の規制の射程、契約による責任分担の射程、サイバーセキュリティ対策の射程、いずれもデータマッピングの結果を前提として初めて確定する。

第 1 段階 ── 義務・責任の割り振り

データマッピングの上に、各主体の義務を把握する作業が位置する。AI 開発者、SaaS 提供者、ユーザー企業の取締役層、現場の利用者 ── これら四者が、それぞれ善管注意義務・契約上義務・業法上義務のどの範囲をどこまで負うかを確認する。

ここでの重要な観点は、義務分担はユーザー企業側で自由に設計できるものではない、という点である。主要なベンダーの利用規約・SaaS 契約は、ユーザー企業側での交渉余地が限定的である場合が多い。したがって、ベンダー側の義務は与件として調査し、その上で自社が引き受けるべき範囲を確定するという順序で進めることが現実的である。

具体的に整合を取るべき規範としては、個情法 23 条から 25 条(安全管理措置、従業者監督、委託先監督)、会社法 362 条 4 項 6 号(内部統制システム整備義務)が中核となる。あわせて、権限委譲の範囲と人間の判断の介在(人間監督)の配置を明示的に設計する必要がある。

第 2 段階 ── クライシスマネジメント体制

平時の体制が整った上で、有事の対応フローを事前設計する段階である。異常検知からエスカレーション、一次対応、法的判断、対外開示に至るまでの一連の流れを、時間軸で具体化する作業である。

個情法漏えい報告の時間制約(速報 3 〜 5 日、確報 30 日、不正目的 60 日)、適時開示の判断軸、対外公表の判断軸が、クライシス対応のタイムラインを規定する基本要素となる。身体・生命に接続する被害類型では、法令上の期限とは別に、停止・隔離・現場保全・被害拡大防止の即応体制が必要となる。財産的被害が甚大化する局面では、取引停止・権限剥奪・回収措置の即応体制が求められる。

あわせて、ベンダーとの連絡体制、ログ提供請求、原因究明協力の取り決め、経営陣への報告ルート、取締役会への上程基準、危機対応における意思決定権限の所在を、平時から明確化しておく必要がある。

第 3 段階 ── 事前文書化

上記の体制を文書として残す作業が、第 3 段階である。事前文書化の具体的な成果物としては、データマッピング図(更新履歴を含む)、責任分担マトリクス、契約条項(Limitation of Liability、Indemnification、Insurance、Audit Right、Log Preservation、Incident Notification 等)、クライシス対応マニュアル、取締役会決議・議事録(導入判断、体制整備、稼働中の見直しに関する記録)、監視体制の運用記録が挙げられる。

事前文書化が欠けている状態は、事後評価において「合理的に期待される管理体制を整備していなかった」という評価を受けやすい。文書化それ自体が、善管注意義務の履行の立証手段である。

第 4 段階 ── 継続的更新

最後に、体制を時間軸で維持・更新する作業が位置する。前節で整理した予見可能性の四つのソースを継続的にモニタリングする仕組み、AI システムの追加・改修に応じたデータマッピングの定期更新、年次の体制見直しとインシデント発生時の臨時見直しのサイクル、取締役会への定期報告による監督義務の履行記録 ── これらが継続的更新の具体的内容である。

この段階が欠けると、不更新責任(前節 4.2 C)の論点が発生する。規範化のギアチェンジが進行する現在、継続的更新は取締役の体制整備義務の不可分の構成要素として位置づけられる。

結論

AI の被害類型が、財産的被害の甚大化と身体・生命侵害の双方に接続する局面では、取締役の善管注意義務水準は従来より高く評価されやすい。合理的に期待される管理体制は、「侵害ゼロ」の保証ではなく、検知・報告・調査・通知・公表・再発防止までを法令上の時間制約内に回せる「運用可能な内部統制水準」として理解されるべきである。不作為責任は「導入義務」として一律に発生するものではなく、不評価責任・不整備責任・不更新責任の 3 層として具体的に発生する。予見可能性のソースは社内事情に限定されず、同業他社事故、規範更新、ベンダーリスク報告を含めたモニタリングが、善管注意義務の履行として要求される。

AI を導入するか否かの判断書面化を、規範化が固まる前の段階で開始すること。データマッピングを起点とする 5 段階モデルで体制を統合的に整備すること。AI エージェント・フィジカル AI 時代の取締役責任は、AI 倫理の延長ではなく、重大事故・重大損失予防法務として設計すること。これらが、実務として取り組むべき方向である。

AI の利用責任は、「やっていた」事実を立証できるかどうかという説明責任の話になってきた。事前文書化や事前準備が事後の経営判断評価を決めるという構造に、取締役は正面から向き合う必要がある。

 

AI導入をめぐる取締役の責任は倫理指針の問題ではなく、体制整備の文書化と継続的な更新が事後の経営判断評価を左右する実務課題と見ています。特に導入判断の記録化や監視体制の整備が後回しになりやすい点については、個別の事情によって対応が異なるため、早めの確認をお勧めしています。
以下に1つでも該当する場合は、専門家への確認をお勧めします。

  • AIツールを業務に使うかどうか、会社として正式に検討・記録したことがない
  • AIシステムを導入した後の監視手順や、異常が起きたときの対応フローを定めていない
  • 海外のAI規制(EUのAI法など)が自社に関係するかどうか確認したことがない
  • AIに関するリスク情報を、社外の事故や規制の動向も含めて定期的に収集する仕組みがない

※「今は問題が起きていないから大丈夫」と判断した後に、AIの誤動作による取引先への損害や情報流出が発覚した場面を想像してください。その時点で意思決定の記録も対応手順も残っていなければ、「何が起きたか」よりも「何も備えていなかった」という点が、取締役の責任として問われることになります。

著者情報

赤坂国際法律会計事務所

弁護士 角田進二(Shinji SUMIDA)

ご相談はこちらから