BLOG POST

ゲンスラーSEC委員長のAIに関する3つの懸念

/

米証券取引委員会(SEC)のゲンスラー委員長が表明したAIに対する懸念が日本でも報道されていますが、これはChatGPTへの注目が高まったからではなく、同氏のSEC委員長就任前からの認識があるように思われます。これらを解説してみました。

■ ゲンスラー氏の人工知能に関する論文

第33代米証券取引委員会(SEC)委員長のゲリー・ゲンスラー氏は2021年4月に委員長に就任したが、同氏は、その前年の2020年にMITのスローンスクールから論文「Deep Learning and Financial Stability」を発表している。ここでは、ディープ・ラーニングが証券市場に効率化やリスク軽減など多数のメリットをもたらす可能性がある一方、技術が成熟化し広くAIが導入された段階では、金融システムの脆弱性につながる可能性があるとの見方を示している。

懸念の背景にあるのは、ディープラーニングやAI技術全般が全米で2-3種類しかない基礎技術の上に構築されているため、それを投資判断に用いると多数の投資家の行動が似通ってしまい、結果ボラティリティが高くなったり、市場が一挙に同じ方向へ動き、最悪の場合、金融危機につながる可能性があるという認識だ。

■ 資本市場におけるAI活用:3つの懸念

ゲンスラー委員長は、2023年7月から8月にかけ、メディアに対して資本市場におけるAI活用の懸念を2度に渡って表明している(7月17日のナショナル・プレスクラブでの会見と、8月6日のDealbook, Ephrat Livni氏とのインタビュー)。その論点をまとめると以下の3点となる。

(1)AIがシステミック・リスクを引き起こす可能性

前述の論文「Deep Learning and Financial Stability」での懸念。

(2)AIが利益相反を引き起こす可能性

証券会社やフィナンシャル・アドバイザー(FA)は、自社よりも顧客の利益を優先する「受託者責任」があるが、人工知能のアルゴリズムの組み方によっては、AIが利益相反を引き起こしてしまう可能性がある(意図するか過失かは問わない)。この課題に関して、SECでは「人工知能を用いたアドバイスであっても、FA/証券会社は投資家を優先すべきであり、AIに関連した利益相反を禁ずる規制案を今年中にも公表すべく検討している」とした。

(3)生成系AIなどを用いた「アドバイス」に対する責任

あらゆる業種において、人工知能が出した結果に対する責任は誰にあるのかが課題となっているが(自動運転車が事故を起こした場合の責任等も含め)、金融アドバイスに関しては、サービスを提供している事業者の責任であることを明白にする必要があるとしている(金融機関は、AIが出した誤ったアドバイスの責任をテクノロジー企業に押し付けてはならない)。これに関しても、ルール作りが必要だとの立場だが、(2)とは異なり規制案作成にまでは言及していない。

■  AIの活用には積極的

同委員長も「AIは驚異的な発展を遂げており、それは人類にとってプラスであり、経済にとっても効率化に貢献することは間違いない」としている。ただ「現在使われているリスク管理に関する規制やツールだけでは、高度なAIツールがもたらす新たなリスクを食い止めることは非常に難しい」との立場をとり、AI利用に対する適切な規制を導入していく必要があるとしている。的確な認識だと思われるがどうだろう。

ABOUT THE AUTHOR

Steven Suzuki is the Head of Asian Operations at Aite-Novarica Group, focusing on business development in Asia. Steven brings to Aite-Novarica Group over 20 years of experience in the Japanese financial services and information technology industries through Datos Insights's acquisition of Solution Services Inc. Steven founded Solution Services in New York in 2005. Based on a deep understanding of U.S. and Japanese financial industries, business practices,…

Read more