「金融が変われば、社会も変わる!」を合言葉に、未来の金融を描く方々の想いや新規事業の企画に役立つ情報を発信!

金融が変われば、社会も変わる!

トレンドを知る

AIガバナンスとは? AI時代におけるリスク管理の必要性と企業の取り組み方

画像

技術の日進月歩とともに、AIは私たちのビジネスや生活のあらゆる場面に浸透しています。仕事や暮らしが便利になる一方で、AIの利活用にまつわる問題が顕在化。その流れから、金融機関をはじめ各企業において「AIガバナンス」の取り組みの強化が進んでいます。AIガバナンスがなぜ必要なのか、各国の動きや企業の取り組み事例とともに紹介します。

AIガバナンスとは

AIガバナンスとは、AI技術を活用してITシステムやサービスを開発・利用・提供するにあたって、社会規範や制度を遵守し、活動を統制するための管理体制や運用のことを指します。

なぜAIガバナンスが必要なのか?

AIの精度や品質の制御に特有の課題があるためです。
機械学習、深層学習(ディープラーニング)、ChatGPTに代表される生成AIなど、ここ数年でAI技術は大きく発展。それとともに、AIの悪用やテスト不足による事故、学習用データの偏りや不足による誤動作といった問題が顕在化してきました。こうした問題をいくつか分類し紹介します。

学習用データの偏りによるAIの誤作動・差別

実際に起きた事例を紹介します。
  • 採用履歴データをAIに学習させ採用基準に利用したところ、女性の採用率が極端に低くなったため、運用を取りやめた(2018年10月 米国)
  • 住宅ローン融資審査で特定の地区の居住者やマイノリティの人が不利に判定された(2021年8月 米報道NPO「ザ・マークアップ」、AP通信による調査報道)

著作権侵害・機密情報の漏洩リスク

AI(特に生成AI)の利用が進むにつれて、今後考えられるリスクの例として紹介します。
  • 生成AIを従業員が活用したところ、自社の機密情報が出力・公開される
  • 生成AIに特定の著作物を読み込ませて記事を作成・公開したところ、著作権侵害であると訴訟を起こされる

AIの悪用リスク

こちらもAIの利用が進むにつれて、今後考えられるリスクの例として紹介します。
  • 生成AIが回答することを禁止されている爆発物の作成方法を、指示文を巧妙に作ることで導き出させる
  • 悪意を持った第三者が開発したAIがローンの審査基準を学習し、審査に通るような書類をAIで作成する
これらの問題を防ぎ、安心・信頼してAIを活用するためには何をすべきか――。AIの活用に伴う問題が拡大するとともに、求められる視点も拡大・変化しています。

出典:株式会社NTTデータ ホワイトペーパー「AI活用に求められる視点の変化」を参考に作成

以前ならば、機械学習的な精度の視点だけ考えればよかったといえるでしょう。しかし今日では、可用性やセキュリティなどシステム的な視点、AIのアウトプットに対するアカウンタビリティ(説明責任)や透明性といった社会的な視点が求められます。
さらにはAIを適用することの倫理的な是非を問う視点も、無視できなくなっています。
こうしたAI活用に求められる視点の拡大・変化をふまえ、企業がAIのリスクを理解し、適切にコントロールするための「AIガバナンス」への関心が高まりつつあります。

AIガバナンスをめぐる国の動き

実効性の高いAIガバナンスを求める声が高まるなか、近年、望ましいAIガバナンスのあり方について国内外でさまざまな検討を重ね、コンセンサスを形成してきました。その主な動きについて見ていきましょう。

AI原則の合意

日本では2019年3月、内閣府の統合イノベーション戦略推進会議が「人間中心のAI社会原則」を策定・公開しました。「AI-Readyな社会」を実現し、AIの適切で積極的な社会実装を推進するために、各ステークホルダーが留意すべき7つの基本原則をまとめています。
  • 人間中心の原則
  • 教育・リテラシーの原則
  • プライバシー確保の原則
  • セキュリティ確保の原則
  • 公正競争確保の原則
  • 公平性、説明責任及び透明性の原則
  • イノベーションの原則
同年5月には、経済協力開発機構(OECD)が「AIに関するOECD原則」を採択。日本を含む42か国が署名しました。このOECDのAI原則では、
  • 包摂的な成長、持続可能な開発及び幸福
  • 人間中心の価値観及び公平性
  • 透明性及び説明可能性
  • 堅牢性、セキュリティ及び安全性
  • アカウンタビリティ
の5つの原則が示されています。

AIガバナンスの議論は「原則」から「実践」へ

AIガバナンスの議論は、AIの原則を理解したうえで実際の業務に実装し、実践するフェーズへと移っています。
AIガバナンスの実践アプローチには、法的拘束力のないガイドラインや自主規制などによって統制する「ソフトロー」と、法律によって規制する「ハードロー」があります。国際的には、欧米を中心にハードローの協議が進展。2023年6月には欧州連合(EU)欧州議会本会議で「AI規則案」が採択されました。
日本は、ソフトローの方向で検討を開始。2019年7月に総務省がAI利活用の10の原則を解説した「AI利活用ガイドライン」を公表しました。続いて2021年7月には経済産業省が、各企業がAIガバナンスモデルを回していくための行動目標と実践例をまとめた「AI原則実践のためのガバナンス・ガイドライン」を公表しています。

大手企業の自主的な取り組みが本格化

政府レベルだけでなく、個々の企業においても、グローバル企業を中心にAIガバナンスに関する取り組みが本格化しています。

海外企業の動き

海外の企業においてとりわけ目立つのが、ChatGPTなど生成AIの活用を禁止する動きです。Amazonでは、社内の資料をChatGPTに学習させるとそのまま出力・公開されるリスクがあることから、顧問弁護士がChatGPTへの機密情報の入力を控えるよう従業員に警告したと報じられています。
金融業界でも、米JPモルガン・チェースが従業員に対してChatGPTの利用を制限したほか、米シティグループ、米バンク・オブ・アメリカ、米ゴールドマン・サックスなども従業員の利用制限を発表するなど、大手金融機関において生成AIの利用に関しては何らかの制限をつけているようです。
また、顔認証のAI技術においては前述のとおり誤認識のリスクが高いことから、海外の大手IT企業が顔認識技術の開発や提供を停止するといった動きが出ています。

国内企業の動き

国内においても一部の金融機関や事業会社の間で、独自にAIガバナンスのルールや体制作りに取り組む事例が増えています。総務省の「AIネットワーク社会推進会議」が2021年9月に取りまとめた「AIガバナンスに関する取組事例」では、国内大手企業による次のような取り組み事例が紹介されています。
  • 経営トップが責任者となってAIガバナンスを実践
  • eラーニングを活用した社員向けのAI倫理やAIリテラシー等に関する教育を実施
  • 企画段階、開発段階において、AI利活用の倫理上の問題点、公平性等のリスクについて各部署でレビューを実施
  • AIモデルを構築する際に、学習データやAIの判断結果に含まれるバイアスを確認。バイアスがある場合は必要に応じて除去する
NTTデータでも、2023年4月に「AIガバナンス室」を新設。2021年にAIアドバイザリーボードを設置しAIガバナンスの取り組みをしており、安心・信頼できるAIシステムを提供することを目的に、AIガバナンスの仕組みと技術の整備に取り組んでいます。

出典:株式会社NTTデータ ホワイトペーパー「AIガバナンス全体像」を参考に作成

またコンサルティング会社のなかには、企業のAIガバナンスの取り組みを支援するコンサルティングサービスも登場しています。
オクトノット編集部が所属するNTTデータでも、AIガバナンス支援のコンサルティングサービスを推進しているほか、AIをテーマとしたセミナーへの登壇、勉強会の開催を行っています。
金融機関に特化したコンサルティング、生成AIに注目した勉強会など、ご要望に応じたカスタマイズのご相談も可能ですので、ご関心のある方はこちらからお問い合わせください!

【参考】セミナー資料サンプル_金融機関におけるAI活用

セミナー資料サンプル_金融機関におけるAI活用.pdf (1.18 MB)

企業がAIガバナンスに取り組むためのステップ

これから検討に着手する企業は、どのような点に留意しながらAIガバナンスに取り組めばよいでしょうか。そのための大きな指針となるのが、経済産業省が2021年7月に公表した「AI原則実践のためのガバナンス・ガイドライン」です。
このガイドラインでは6つのステップと、それぞれの行動目標を示しています。

出典:経済産業省 AI原則実践のためのガバナンス・ガイドラインVer. 1.1を参考にオクトノット編集部にて作成

ステップ 行動目標
①環境・リスク分析 AIシステムがもたらしうる正負のインパクトの理解
AIシステムの開発・運用に関する社会的受容の理解
自社のAI習熟度の理解
②ゴール設定 AIガバナンス・ゴールの検討、設定
③システムデザイン(AIマネジメントシステムの構築) AIガバナンス・ゴールからの乖離の評価と対応AIマネジメントシステムを担う人材のリテラシー向上
事業者間・部門間の協力によるAIマネジメント強化
インシデントの予防と早期対応
④運用 AIマネジメントシステムや個々のAIシステムの運用状況について説明可能な状態の確保
AIガバナンスの実践状況の積極的な開示
⑤評価 AIマネジメントシステムが適切に機能しているかどうかを検証
社外ステークホルダーからの意見聴取
⑥環境・リスクの再分析 「①環境・リスク分析」の各行動目標の再実施
ここで重要なのは、日々発展するAI技術に適合していくためにも、これらの①~⑥のステップを1つのサイクルとして短いスパンで回していくことです。特にカギとなるのが、⑤評価⑥環境・リスクの再分析のステップを適時に実施することです。
AIの利活用においてもセキュリティアセスメントが求められており、自社のAIガバナンスで培ったノウハウをベースに、お客さま企業を支援するサービス開発に取り組んでいる事例もあります。

AIのリスクを適切にコントロールする「AIガバナンス」のブランド価値

改めて、企業がAIガバナンスに取り組むメリットをあげると、大きく次のように整理できます。
  • 政府等のガイドラインに沿った企業活動を実践できる
  • AIの利用に伴う問題点を想像しそれに対する準備ができる
  • エンドユーザーに対して安心感を持ってもらえる
これらのメリットに加え、数年後にはAIの法規制も視野に入ってきています。安心・信頼できるAIを提供可能な能力や体制を持つことは、企業にとって近い将来に大きな「ブランド価値」をもたらすことでしょう。
画像

執筆 オクトノット編集部

NTTデータの金融DXを考えるチームが、未来の金融を描く方々の想いや新規事業の企画に役立つ情報を発信。「金融が変われば、社会も変わる!」を合言葉に、金融サービスに携わるすべての人と共創する「リアルなメディア」を目指して、日々奮闘中です。

感想・ご相談などをお待ちしています!

お問い合わせはこちら
アイコン