innovaTopia

ーTech for Human Evolutionー

ウェルズ・ファーゴのAIアシスタント「Fargo」が2億4500万件の対話を達成 – 人間介入ゼロ・個人情報漏洩ゼロの革新的アーキテクチャ

ウェルズ・ファーゴのAIアシスタント「Fargo」が2億4500万件の対話を達成 - 人間介入ゼロ・個人情報漏洩ゼロの革新的アーキテクチャ - innovaTopia - (イノベトピア)

Last Updated on 2025-04-09 11:25 by admin

ウェルズ・ファーゴのAIアシスタント「Fargo」が2024年に2億4540万件の対話を達成した。これは当初の予測の2倍以上であり、累計では3億3600万件を超える対話を処理している。注目すべきは、この膨大な対話をすべて人間の介入なしで行い、顧客の機密データを言語モデルに一切露出させることなく実現した点である。

Fargoは2022年10月24日に発表され、2023年初頭から顧客向けにサービスを開始した。Google Cloudの人工知能技術を活用したこの仮想アシスタントは、ウェルズ・ファーゴのモバイルアプリに組み込まれており、音声やテキストを通じて顧客の日常的な銀行業務をサポートしている。

具体的な機能としては、請求書の支払い、資金の移動、取引詳細の提供、口座活動に関する質問への回答などがある。また、2023年9月にはスペイン語対応も開始され、利用の80%以上を占めるまでに成長している。

このシステムはプライバシー重視のパイプラインを通じて機能し、顧客の音声はスピーチ・トゥ・テキストモデルによってローカルで文字起こしされた後、ウェルズ・ファーゴの内部システムによって処理される。個人を特定できる情報(PII)検出のための小型言語モデル(SLM)を含むこのシステムにより、機密データがGoogleのFlash 2.0モデルに到達することはない。

ウェルズ・ファーゴのCIOであるチンタン・メータ氏によると、同行のアプローチは「複合システム」の構築に基づいており、タスクに応じて最適なモデルを選択するオーケストレーション層を活用している。「ポリモデル・ポリクラウド」と呼ばれるこの戦略により、Fargoの基盤はGoogleのFlash 2.0だが、社内の他の用途ではLlamaのような小型モデルも使用し、必要に応じてOpenAIモデルも活用できる柔軟性を持っている。

from:Wells Fargo’s AI assistant just crossed 245 million interactions – no human handoffs, no sensitive data exposed

【編集部解説】

ウェルズ・ファーゴのAIアシスタント「Fargo」が達成した2億4540万件という対話数は、金融業界におけるAI活用の成功事例として注目に値します。複数の情報源を確認したところ、この数字は正確であり、当初の予測の2倍以上という点も事実です。

Fargoは2022年10月に発表され、2023年初頭からサービスを開始しました。最初の1年間で約1億1700万件の対話を処理し、2023年には約2130万件の対話を記録。そして2024年には急速に成長して2億4540万件を達成したことになります。この急成長は、顧客のAIアシスタントに対する受容性の高まりを示しています。

特筆すべきは、このシステムのプライバシー保護アーキテクチャです。金融業界ではデータプライバシーが最重要課題ですが、ウェルズ・ファーゴは「人間の介入なし」かつ「機密データの露出なし」という二つの難題を同時に解決しました。これは、オーケストレーション層と呼ばれる中間層を設けることで実現しています。

このアーキテクチャでは、顧客の音声はまずローカルで文字起こしされ、その後ウェルズ・ファーゴの内部システムで処理されます。個人情報は小型言語モデル(SLM)によって検出・除去され、GoogleのFlash 2.0モデルには顧客の意図とエンティティ情報のみが送られる仕組みです。

このアプローチは「ポリモデル・ポリクラウド」と呼ばれ、タスクに応じて最適なAIモデルを選択する柔軟性を持っています。Fargoの基盤はGoogleのFlash 2.0ですが、社内の他の用途ではLlamaのような小型モデルも使用し、必要に応じてOpenAIやAnthropicのモデルも活用できるとのことです。

金融業界におけるAI活用の最大の課題は、利便性とプライバシー保護のバランスです。シティバンクのアナリティクス責任者プロミティ・ダッタ氏は昨年、外部向けLLMのリスクがまだ高すぎると述べていました。その中で、ウェルズ・ファーゴがこの課題を解決したことの意義は大きいでしょう。

また、ウェルズ・ファーゴはFargoだけでなく、15年分の融資書類を再引受するプロジェクトでもAIを活用しています。LangGraphなどのオープンソースフレームワークを基盤としたエージェントのネットワークを構築し、ドキュメント取得から計算実行まで、従来は人間のアナリストが行っていた作業を自動化しています。

AIの導入による具体的な成果としては、顧客エンゲージメント率の向上と運用コストの削減が実現しています。特にスペイン語対応の導入後は、スペイン語話者の顧客満足度も大幅に向上しています。

今後の課題としては、ウェルズ・ファーゴのCIOであるチンタン・メータ氏が指摘するように、AIの真のボトルネックはチップではなく電力の生成と配電になるでしょう。大規模なAIモデルの運用には膨大な電力が必要であり、持続可能なAI活用のためにはエネルギー効率の向上が不可欠です。

Fargoの成功は、金融業界だけでなく他の産業にも大きな示唆を与えています。プライバシーとセキュリティを確保しながらAIの恩恵を最大化するためのアーキテクチャ設計は、医療や行政など機密データを扱う分野でも応用可能でしょう。

日本の金融機関においても、このようなプライバシー重視のAIアシスタント導入が進めば、顧客体験の向上とオペレーションコストの削減を同時に実現できる可能性があります。ただし、日本特有の規制環境や顧客の期待に合わせたカスタマイズが必要となるでしょう。

【用語解説】

生成AI(Generative AI):
テキスト、画像、音声などのコンテンツを自動生成できる人工知能技術。Fargoはテキストと音声を理解し応答する生成AIの一例である。

LLM(Large Language Model):
大量のテキストデータで訓練された大規模言語モデル。ChatGPTやGeminiなどが代表例で、Fargoの中核技術として使用されている。

オーケストレーション層:
複数のAIモデルやシステムを連携させ、全体の処理を制御する中間層。Fargoではこの層が顧客データの保護と適切なモデル選択を担当している。

PII(Personally Identifiable Information):
個人を特定できる情報。氏名、住所、口座番号などが含まれる。Fargoはこれらの情報をLLMに送信しないよう設計されている。

SLM(Small Language Model):
大規模言語モデルより小さく、特定のタスクに特化したモデル。Fargoでは個人情報の検出に使用されている。

ポリモデル・ポリクラウド:
複数のAIモデルと複数のクラウドプラットフォームを組み合わせて使用するアプローチ。特定のベンダーに依存せず、タスクに最適なモデルを選択できる。

LangGraph:
LangChainが開発したオープンソースのAIエージェントフレームワーク。複雑な生成AIエージェントワークフローの構築・展開・管理を可能にする。

【参考リンク】

ウェルズ・ファーゴ(Wells Fargo)(外部)
米国の大手金融サービス会社。「Big Four Banks」の一つで、70か国以上に顧客を持つ

Google Cloud(外部)
Googleが提供するクラウドコンピューティングサービス。Fargoが使用するAIモデルを提供

LangChain(外部)
LLMを使用したアプリケーション開発のためのオープンソースフレームワーク

Gemini Flash(外部)
Googleが提供する低レイテンシーで高性能なAIモデル。Fargoの中核技術

【編集部後記】

AIアシスタントの進化は、私たちの日常生活をどう変えていくのでしょうか?ウェルズ・ファーゴの事例は、プライバシーを守りながらAIの便利さを享受できる可能性を示しています。日本の銀行でも同様のサービスがあれば利用したいと思いますか?あるいは、金融以外の分野で、どんなAIアシスタントがあれば便利だと感じますか?皆さんの声をSNSでぜひ教えてください。テクノロジーの未来を一緒に考えていきましょう。

【関連記事】

AI(人工知能)ニュースをinnovaTopiaでもっと読む

author avatar
TaTsu
デジタルの窓口 代表 デジタルなことをまるっとワンストップで解決 #ウェブ解析士 Web制作から運用など何でも来い https://digital-madoguchi.com
ホーム » AI(人工知能) » AI(人工知能)ニュース » ウェルズ・ファーゴのAIアシスタント「Fargo」が2億4500万件の対話を達成 – 人間介入ゼロ・個人情報漏洩ゼロの革新的アーキテクチャ