セミナーの概要
2022年11月に米国のOpenAI社が提供したChatGPTを契機に生成AIは大きな関心を集めています。金融業界も例外ではありません。このセミナーでは、前半のパートでは生成AIをはじめとした、AIの金融での利用可能性やユースケース、ガバナンスの重要性について説明しました。後半のパートでは、社内規定や業務関連資料、外部の大規模言語モデル(LLM)や公開データなど多様なデータを生成AIとセキュアに連携させて回答文を作成するNTTデータのソリューションLITRON® Generative Assistantの説明とデモを実施しました。この記事では当日のセミナーの内容を要約してご紹介します。
AIの進展と生成AI活用の登場
金融機関が勘定系システム以外で保持するデータを業務に活かすため、2000年代から情報系システムの整備が進みました。その後に隆盛となったビッグデータ技術の活用を経て、2015年ころからAIの活用が多くされるようになっています。
金融機関では口座の取引履歴や有価証券報告書、デジタル化した訪問時の記録など、さまざまなデータをもとにAIモデルを構築して業務に利用しています。AIが顧客の資金需要を予測し収益機会を増やしたり、熟練者のノウハウによるチェックの一部をAIで代替したり、営業先のリストの整備をAIにさせ効率化したりなど、業務にある程度の変化を与えるようになりました。
なかでも2018年にGoogleが開発したBERTという自然言語処理技術は、高性能な言語モデルであり、検索エンジン、チャットボット、機械翻訳、文書分類、文書チェックなどの応用がされました。BERTは特定の業務分野に特化した追加学習をすることで、その業界の専門用語や特有の言い回しに対応することができます。例えば金融のドキュメントを追加学習したBERTは、日本証券業協会が実施する一種外務員試験に対して追加学習前よりも高得点を出すことを確認しています。
AI技術はさらに進展しています。2022年11月に公開されたOpenAIのChatGPTは、大規模言語モデルに基づいた生成AIとして登場し、大きな衝撃を与えました。生成AI登場以前のAIは“特化型AI”とも呼ばれており、融資の審査や不正検知などに特化したものです。
クレジットカードなどの不正利用を検知するユースケースでは、顧客の属性や利用金額、利用地域、利用店舗、利用時間帯などを過去の業務履歴から抽出し学習データとして、AIモデルを構築しています。この不正利用検知に特化したAIモデルは、一定の精度で不正と疑わしい取引を検知できます。
一方の生成AIのもととなる大規模言語モデルはどのように作られているでしょうか。例えば、OpenAIのGPT-3では、OpenAIは人類がこれまで書いてきた自然言語に着目し、主にインターネットに公開されている大量の自然言語データを前処理し、大規模なテキストデータ群を用意しています。
クレジットカードなどの不正利用を検知するユースケースでは、顧客の属性や利用金額、利用地域、利用店舗、利用時間帯などを過去の業務履歴から抽出し学習データとして、AIモデルを構築しています。この不正利用検知に特化したAIモデルは、一定の精度で不正と疑わしい取引を検知できます。
一方の生成AIのもととなる大規模言語モデルはどのように作られているでしょうか。例えば、OpenAIのGPT-3では、OpenAIは人類がこれまで書いてきた自然言語に着目し、主にインターネットに公開されている大量の自然言語データを前処理し、大規模なテキストデータ群を用意しています。
このテキストデータ群は、特定の目的に沿って集められたものではありません。多種多様な大量のデータをもとに大規模言語モデルを作り、チャットという人間が他者に質問するようなユーザーインターフェースでサービスを提供しています。この大規模言語モデルが、ユーザーが入力する質問に対して、過去に人類が記した言語のパターンをもとに、質問にふさわしい回答を返しているのです。
金融機関における生成AI
ChatGPTのサービス開始から、生成AIに対する期待は高まりました。ユーザーが入力する質問に対して、人間のようにそれなりの回答を返し、適当な文書を作成することで多くのビジネスシーンでの利用が期待されています。サービス開始当初から、業務(主に情報収集)の効率化、アイデア出しや補完、ソースコードの作成などに利用され、一定の評価を得ています。
しかし2023年に入ると、情報漏洩のリスクが懸念されChatGPTの利用に慎重な姿勢を見せる企業も数多く出てきています。そのような状態で、MicrosoftがAzure OpenAI Serviceのサービスを提供し、日本でも多くの大手銀行がこれを利用するという報道が一斉にされました。
Azure OpenAI Serviceは、金融機関をはじめとして多くの企業に支持されています。このサービスを利用することで、企業の機密情報をある程度保護したうえで生成AIが利用できることが支持の理由です。広く一般に公開されているChatGPTより安全に金融の業務に生成AIが利用できるのです。現在は大手銀行に加え、保険会社や地方銀行においても大規模言語モデルを使った業務効率化の実証実験や検証などが行われています。
実際に、生成AIを業務に使用するにあたり、いくつかの課題も明らかになってきました。これまでも官公庁、経済団体、学術会議、企業などがAIのガイドラインを公表しています。しかし、生成AIの利用に対しては、このガイドラインで触れる従来のAI利用のリスク管理では十分と言えません。
生成AIに使われる大規模言語モデルの構築には、Webなどから収集された大量で広範囲のデータセットが利用されています。生成AIの利用では、ユーザーが柔軟な指示を入力し、生成AIからの出力を活用します。生成AIが生成したコンテンツにはその特性上いくつかのリスクが含まれる場合があります。
具体的には、大規模言語モデルの学習データとなった第三者のコンテンツの権利侵害をするリスク、あたかも正確であるかのように回答するハルシネーションのリスク、指示に含まれる機密情報が漏洩するリスクなどがあげられます。このようなリスクに対して従来のAIとは別に、生成AIを金融機関で利用する際の固有の問題を予見するルールと現場への浸透、技術が必要になります。
生成AIに使われる大規模言語モデルの構築には、Webなどから収集された大量で広範囲のデータセットが利用されています。生成AIの利用では、ユーザーが柔軟な指示を入力し、生成AIからの出力を活用します。生成AIが生成したコンテンツにはその特性上いくつかのリスクが含まれる場合があります。
具体的には、大規模言語モデルの学習データとなった第三者のコンテンツの権利侵害をするリスク、あたかも正確であるかのように回答するハルシネーションのリスク、指示に含まれる機密情報が漏洩するリスクなどがあげられます。このようなリスクに対して従来のAIとは別に、生成AIを金融機関で利用する際の固有の問題を予見するルールと現場への浸透、技術が必要になります。
しかし2023年に入ると、情報漏洩のリスクが懸念されChatGPTの利用に慎重な姿勢を見せる企業も数多く出てきています。そのような状態で、MicrosoftがAzure OpenAI Serviceのサービスを提供し、日本でも多くの大手銀行がこれを利用するという報道が一斉にされました。
Azure OpenAI Serviceは、金融機関をはじめとして多くの企業に支持されています。このサービスを利用することで、企業の機密情報をある程度保護したうえで生成AIが利用できることが支持の理由です。広く一般に公開されているChatGPTより安全に金融の業務に生成AIが利用できるのです。現在は大手銀行に加え、保険会社や地方銀行においても大規模言語モデルを使った業務効率化の実証実験や検証などが行われています。
実際に、生成AIを業務に使用するにあたり、いくつかの課題も明らかになってきました。これまでも官公庁、経済団体、学術会議、企業などがAIのガイドラインを公表しています。しかし、生成AIの利用に対しては、このガイドラインで触れる従来のAI利用のリスク管理では十分と言えません。
生成AIに使われる大規模言語モデルの構築には、Webなどから収集された大量で広範囲のデータセットが利用されています。生成AIの利用では、ユーザーが柔軟な指示を入力し、生成AIからの出力を活用します。生成AIが生成したコンテンツにはその特性上いくつかのリスクが含まれる場合があります。
具体的には、大規模言語モデルの学習データとなった第三者のコンテンツの権利侵害をするリスク、あたかも正確であるかのように回答するハルシネーションのリスク、指示に含まれる機密情報が漏洩するリスクなどがあげられます。このようなリスクに対して従来のAIとは別に、生成AIを金融機関で利用する際の固有の問題を予見するルールと現場への浸透、技術が必要になります。
生成AIに使われる大規模言語モデルの構築には、Webなどから収集された大量で広範囲のデータセットが利用されています。生成AIの利用では、ユーザーが柔軟な指示を入力し、生成AIからの出力を活用します。生成AIが生成したコンテンツにはその特性上いくつかのリスクが含まれる場合があります。
具体的には、大規模言語モデルの学習データとなった第三者のコンテンツの権利侵害をするリスク、あたかも正確であるかのように回答するハルシネーションのリスク、指示に含まれる機密情報が漏洩するリスクなどがあげられます。このようなリスクに対して従来のAIとは別に、生成AIを金融機関で利用する際の固有の問題を予見するルールと現場への浸透、技術が必要になります。
生成AIを安全に利用可能にするLITRONⓇ Generative Assistant
NTTデータは2023年6月にLITRONⓇ Generative Assistantというサービスの提供を開始しました。このサービスは、企業が生成AIを利用する際に利用者の個人情報や企業の機密情報の流出、不正確な回答などが懸念されるリスクに対応したものです。
LITRONⓇ Generative Assistantは、NTTデータが提供するデータ分析基盤TDF-AMを活用し、関連文書を安全な領域に保持しながら、公開されている外部の大規模言語モデルを利用可能にする技術です。これにより知能としての大規模言語モデルと、知識としての社内文書ストアを分離することで、生成AIによる柔軟な回答と、社内文書に基づく信頼性のある回答を実現しています。
下の図の動作イメージでは、社内の出張に関する規定類などの関連文書を安全な領域に保持し、外部の大規模言語モデルを使い自然で正確な回答を実現している例です。
下の図の動作イメージでは、社内の出張に関する規定類などの関連文書を安全な領域に保持し、外部の大規模言語モデルを使い自然で正確な回答を実現している例です。
企業内での生成AIの利用には、LITRONⓇ Generative Assistantのように生成AIの挙動をコントロールする技術が有効です。
終わりに
FIT2023ではこのような内容のセミナーを行いました。金融において生成AI利用のニーズは強くなっています。利用の可能性をさらに高めるために、LITRONⓇ Generative Assistantのような技術に加え、生成AIを含めたAIのリスクを適切にコントロールする「ガバナンス」への取り組みが重要であると考えます。
いくつかのコンサルティング企業が、企業のAIガバナンスの取り組みを支援するコンサルティングサービスを提供しています。NTTデータでも、AIガバナンス支援のコンサルティングサービスを推進しています。このほかAIをテーマとしたセミナーへの登壇、勉強会などにご関心のある方はこちらからお問い合わせください。
いくつかのコンサルティング企業が、企業のAIガバナンスの取り組みを支援するコンサルティングサービスを提供しています。NTTデータでも、AIガバナンス支援のコンサルティングサービスを推進しています。このほかAIをテーマとしたセミナーへの登壇、勉強会などにご関心のある方はこちらからお問い合わせください。
セミナー資料サンプル_金融機関におけるAI活用.pdf (1.18 MB)