2025年12月22日のニュース「今後の日本向けポリシー改定に影響する「グローバル・ベンチマーク・ポリシー調査」の3項目【その②】」では、ISS「グローバル・ベンチマーク・ポリシー調査」のうち「長期インセンティブ報酬の構造」についての調査結果を解説した。続いて本稿では、「AIガバナンスとリスク管理」を取り上げる。
AIガバナンスとリスク管理(AI Governance and Risk Management)
グラスルイスは米国向けポリシーにおいて、取締役会による人工知能(AI)の監督に関する基準を既に導入している。具体的には、AI の利用や管理に起因する重大なインシデントが発生し、その背景に取締役会による不適切な監督・管理があり、結果として株主に重大な損害が生じたことが明白な場合には、取締役の選任議案に反対助言を行う可能性があるとしている。ISS も AI 技術に関するガバナンスとリスク管理の必要性を認識し、今回の調査ではこれに関連する設問を複数提示した。
まず、AI を積極的に活用している企業(a company significantly using AI)において、AI 関連リスクを評価するためのグローバルなフレームワーク(OECD AI Principles や NIST AI RMF など)を現時点で適用することが適切かどうかが問われた。この問いに対しては、下表のとおり、投資家の約 58%が「適切(timely)」と回答した一方、非投資家の約84%が「時期尚早(premature)」と回答している。上場会社は自らの裁量で AI リスク管理を進めたい意向があるものと思われるが、投資家はその対応が適切であるかどうかを判断するため、共通したフレームワークが適用されることを期待していることが窺われる。
OECD AI Principles : OECD が2019年に採択した、AI の開発・利用に関する国際原則。人間の価値の尊重、公正性、透明性、安全性、説明責任などを掲げ、各国の政策立案や企業のAIガバナンスの指針として広く参照されている。
NIST AI RMF : 米国国立標準技術研究所(NIST)が2023年に公表した AI Risk Management Framework (AI RMF 1.0)。AI システムに伴うリスクを特定・評価・低減するための枠組みで、信頼性、透明性、安全性、公正性などの観点から、AI の設計・運用・評価を支援する実務的ガイドラインを提供している。
| 選択肢 | 投資家 | 非投資家 |
| 現時点では時期尚早 | 41.77% | 84.21% |
| 適切(timely) | 58.23% | 15.79% |
次に ISS は、AI を活用したビジネスや社内システムを取締役会がどのように監督しているかを開示すべきか聞いている。この問いに対し、事業において AI が重要な役割(a significant role)を果たす場合には開示が必要との回答が投資家で過半数、非投資家では 7 割超に達した。さらに投資家の 4 割強は「ほとんどすべての場合(In all or most cases)」で開示が必要と回答している。AI 関連リスクはもはや特定の業種や事業領域にとどまらない問題であるという資本市場の認識がうかがえる。上述のとおり、グラスルイスは重大なインシデントが発生した場合には取締役会による AI リスクの監督体制を問う姿勢をポリシーとして明確にしている。今回の調査結果を踏まえると、ISS においても同様のポリシーが導入される可能性があろう。
| 選択肢 | 投資家 | 非投資家 |
| AIが事業戦略において重要な役割を果たす場合 | 53.55% | 72.73% |
| ほとんど全ての場合(開示不要な場合は理由を説明) | 42.58% | 12.73% |
| その他 | 3.87% | 14.55% |
ただし、次の設問では、たとえ監督体制を開示していても、それだけで取締役会が AI 関連リスクを適切に理解しているとは言えないという共通認識が示されている(投資家の68.83%、非投資家の52.73%)。この結果は、単に「取締役会はグローバルなフレームワークに沿って AI リスクを監督している」ことを開示するだけでは不十分であり、そのフレームワークを実際に活用する取締役会の能力や、それを支える社内の運用体制といった“実質”が今後ポリシーで問われる可能性を示唆している。
| 選択肢 | 投資家 | 非投資家 |
| 取締役会の理解度が高いことを示す指標となる | 18.83% | 18.18% |
| 開示だけで取締役会の理解度を測ることは難しい | 68.83% | 52.73% |
| 開示と取締役会の理解度に相関関係はほとんどない | 12.34% | 29.09% |
上述した「実質の伴った体制」であることを示すためにはどのような情報が有用かも問われた。選択肢として挙げられた「研修や教育プログラム」「外務専門家やアドバイザリー業者」「取締役会メンバーの専門知識や経験」がそれぞれ投資家と非投資家の双方から 2~3 割の賛同を得ている。したがって、これらの情報を組み合わせことで、AI関連リスクの監督体制に対する信認を高めることが可能だろう。また、投資家から最も賛同を集めたのが「取締役会メンバーの専門知識や経験」であることを踏まえると、少なくとも「AIが事業戦略において重要な役割を果たす場合」には、例えばスキルマトリックスの項目に「AI」を追加して社外取締役の選任に活用することも検討したい。
| 選択肢 | 投資家 | 非投資家 |
| AIに関する研修や教育プログラム | 23.73% | 23.39% |
| 外部専門家やアドバイザリー業者との連携 | 22.72% | 20.16% |
| 取締役会の各メンバーが持つ専門知識や経験 | 27.38% | 20.97% |
| AI関連リスクが全社的リスク管理(enterprise risk management)にどの程度組み込まれているか | 0.00% | 6.45% |
