「金融が変われば、社会も変わる!」を合言葉に、未来の金融を描く方々の想いや新規事業の企画に役立つ情報を発信!

金融が変われば、社会も変わる!

トレンドを知る

信頼できるAIのためのガバナンスとは

画像

私たちの生活のなかにはすでに多くのAIを用いたサービスが運用されています。例えば好みのコンテンツや商品を推薦してくれる身近な場面でもAIは利用されていますが、技術の進化に伴い、社会的な基盤の維持や人命の保護など、高い信頼性が必要な領域までAIの適用範囲は広まりつつあります。
こうしたAIによる利便性が高まる一方で、自動運転中の事故やインフラなどの異常検知の見落としや、人種や性別の差別など多くのリスクも同時に高まっています。社会がAIを受容しつつある現代ですが、AIを適切にガバナンスすることは、予想しえないAIの挙動や人権に関わる諸問題の発生などのリスクに対処するために重要です。今回はAIのガバナンスについて紹介します。

AIガバナンスの必要性

ディープラーニングの登場をきっかけに人工知能(AI)の性能が大きく向上したことで、AIはさまざまな領域で使われるようになってきました。特にデジタル化の進展や人口減少を背景として、 AIはサイバー空間のみならず実世界で活用されるようになり、その範囲は自動運転やインフラ点検、融資審査など人命や社会インフラに関わる「高い信頼性が求められる領域」に拡大しています。

AIの活用範囲の拡大に伴って、AIの活用に求められる視点は、認識精度の高さといった機械学習的な視点、可用性やセキュリティなどシステム的な視点に加えて、AIの出力に対する説明性や公平性などの社会的な視点、さらには、そもそもとしてその業務をAIに任せて良いのかといった倫理的な視点が求められるようになってきました(図1)。

図1:AI活用に求められる視点

顕在化するAIリスク

AIがいろいろな分野で適用されるにつれて、さまざまな問題が顕在化しています。例えば、人と会話して賢くなることを想定して公開されたチャットボットが、差別的な発言を大量にインプットされたため、公開の数時間後から差別的な発言を連発するようになってしまったことで、当日中に公開を停止せざるを得なくなり、その企業のイメージに大きく傷がついた事件がありました。

また、顔認識技術を使ったシステムでは、例えば高級ブランド店で起きた万引き事件で、監視カメラに映っていた人物を顔認識システムで鑑定し、提示された人物を逮捕したところ、カメラに映っていた人物とは全く異なった顔であり、しかも逮捕された人物には事件当日のアリバイがあったといった問題もありました。本件は実は人種によるバイアスが問題になった事例です。こうした問題を受けて海外では大手IT企業が顔認識技術の開発や提供を停止するといった動きになっています。

金融分野もこうしたリスクと無縁ではなく、クレジットカードや住宅ローンの融資審査で十分な収入があるにもかかわらず、マイノリティの人たちにバイアスが生じ、不利益な判断をされた事例がありました。

こういったAIが差別的な判断をしてしまう原因には、AIの学習データに問題があると言われています。一般的にAIを構築する際は、過去の犯罪や融資実績のデータを学習しますが、そのデータには人間がこれまでの社会で行ってきた行為のなかの差別的な内容をバイアス(偏り)として含んでいることがあります。このため、データに内包されたバイアスをAIが学習することで、人間が積み重ねてきたバイアスをAIが再現したこととなり、問題が顕在化します。こうした問題が起きないように、学習データの公平性には注意を払う必要があります。

データの目的外利用に関するAIのリスクも顕在化しています。国内でも、就職活動の学生に向けた情報提供サービスにおいて、登録された学生のサイトの利用頻度や閲覧履歴などをもとに、AIによって内定辞退率を算出し、希望する企業に有料で提供するサービスをしていたことがメディアで大きく報じられて大きな社会的な問題に発展したことがありました。これはデータの目的外利用の問題であり、AIのガバナンスの対象とされるべきものです。

各国の動向

こうしたなかで、数年前から政府や国際的な組織・団体を中心にAIを統制する=ガバナンスをかける動きがでてきました。

2016年4月、日本の高松で開催されたG7サミット情報通信大臣会合において、日本が国際的議論の必要性を提起したのをきっかけに、AIガバナンスに関する議論が開始されました。
これを受けて、OECDに本件を検討する会合が設置され、日本の内閣府や総務省が策定した「人間中心のAI社会原則」や「AI利活用ガイドライン」などもインプットされ、最終的には2019年5月に出されたOECDのAI原則や6月のG20サミットでのAI原則の合意に繋がりました。こうした原則やガイドラインを定めて守っていくことは「ソフトロー」と呼ばれています。

しかしその後、2020年前後から、欧米ではAIの規制に向けた動きが強化されています。2021年4月にはEUでAI規則案が公開されました。AI規則案は最も早ければ2022年内の成立を目指して審議が進められていると言われています。

また、米国でも2019年ごろからAIは国の安全保障に関わる問題として取り組みが強化されています。バイデン大統領は就任直後からAIの利用にはルールが必要という発言を盛んに行っており、法規制に向けた動きがみられます。これらはいわゆる「ハードロー」に向けての動きです。

一方で、こうした法規制はイノベーションを阻害するのではないかとの声もあり、今後どういった方向に進んでいくのか、動向を注視していく必要があります。

AIリスクに対応するガバナンスの考え方

こうしたAIリスクの問題やAI倫理・法規制の問題に対応するために組織的なガバナンスの確立が求められるようになってきました。企業においても、自主的にAIガバナンスを整備し、こうした問題への対応力を付けることが、AIビジネスにおける競争力の源になりつつあります。

一般的にAIガバナンスの確立には「指針の策定」「開発手順・方法論の整備」「外部委員会の設置」が必要であると考えられています。AIガバナンスの確立の要素を図示し説明します(図2)。

図2:AIガバナンスの要素

(1) 活動のベースとなる指針の策定
AIガバナンスの活動のベースとなる理念を指針として策定します。企業により「AI倫理規定」や「AI指針」など呼び方は様々ですが、内容としては政府や経済団体、学会等が出しているAI原則やガイドラインでも共通して述べられている「人間中心」や「アカウンタビリティ、透明性、公平性」「セキュリティ、プライバシー」といった観点に、経営理念など各社独自の視点を加えて策定されているようです。
日米のIT企業の多くがこうした指針を策定しています。また自動車会社の指針となる自動運転車のガイドラインなど、業界に特化したAIの利用に関する指針も策定されています。

(2) プロジェクトの実行を支える実効的な方法論の整備
実際のAIシステムの開発や運用シーンで、策定したAI指針や倫理規定に則った活動を可能とするためは、開発手順や方法論が必要となります。特に、AIは入出力の明確な定義や全ての入力に対する100%の動作保証が困難なことから、AIを含むシステム開発においては、データおよびモデルに対するAI特有の品質管理手法が必要になるため、こうしたことを踏まえた方法論の整備が進んでいます。AIの品質観点は、国内外で積極的に議論されている段階です。
具体的にはAIモデルが正しい判断を下す正当性や、公開したAIシステムに不適切な入力などがあっても正常な動作を保証する頑健性、AIの推論結果やプロセスに対する解釈可能性などの品質特性が求められています。

(3) 多様な有識者によるあるべき姿の策定
AIガバナンスの透明性を確保する目的で、外部からチェックやアドバイスを受けられる体制を構築します。特に、先に述べたAIリスクや法規制、倫理・社会受容性の問題に対応するには、多様な視点からの検討が有効と言われており、アドバイザリーボードや委員会といった名前で各社でも設置が進んでいるようです。
社内の技術部門や法務関連部門に加え、情報科学者、法学者、法律の実務家、医学者などが参加しAIガバナンスについて検討がされているようです。

AIガバナンスの確立に向けて

NTTデータグループでも2019年5月にAI指針の策定、2020年にはAI開発方法論の整備、2021年4月にAIアドバイザリーボードの設置というように、AIガバナンスの強化に向けた取り組みを進めています。

2021年4月に設置した「AIアドバイザリーボード」では、AI ガバナンスの強化に向けた意見交換を行うことを目的に、倫理や法務、ソフトウェア品質など各分野の専門家から最新トレンドを学び、どのように当社のAIガバナンスに反映していくべきか、現場のマネージャーレベルまで参加する勉強会を通じて継続して議論をしています。
こうした当社のAIガバナンスの取り組みは、総務省AIネットワーク社会推進会議からも注目されており、昨年9月に公開された資料では、AIガバナンスの確立に意欲的な企業の1つに上げられています。
近年は金融分野のお客様からも、AIガバナンスに関する勉強会の開催や、自社で整備されたAIガイドラインの最新化を支援してほしいなどのご相談をいただいています。AIガバナンスの取り組みにご興味ありましたら当社にお声がけください。

※本記事の内容は、執筆者および協力いただいた方が所属する会社・団体の意見を代表するものではありません。
※記事中の所属・役職名は取材当時のものです。
画像

執筆 鈴木 賢一郎

NTTデータに入社以来、主に映像メディア分野の技術開発や標準化、商用化に向けた技術検証を担当。2018年5月~2020年12月まで国立研究開発法人NEDOにて人工知能技術分野の国プロのマネジメント業務に従事。近年はAIガバナンスの研究開発を担当。

感想・ご相談などをお待ちしています!

お問い合わせはこちら
アイコン