如何防止人工智慧(AI)引發下一次金融危機

人工智慧系統對市場有利,但其可能引發的金融穩定性風險必須被管理

新聞來源: New systems have benefits for markets, but risks to stability must be managed

美國證券交易委員會主席加里·根斯勒(Gary Gensler)認為,監管干預對於避免人工智慧引發的金融危機至關重要

在談論因人工智慧而造成裁員的議題時,美國證券交易委員會主席Gary Gensler認為機器人實際上將為金融監管機構創造更多工作。Gary Gensler認為,在沒有監管干預的情況下,十年內發生人工智慧驅動的金融危機的可能性“幾乎不可避免”。眼前的風險更多的是新的金融危機,而不是機器人接管的問題。

Gensler的批評者認為,人工智慧帶來的風險並不新鮮,而且已經存在了幾十年。但是,這些系統的性質是由少數幾家非常強大的科技公司創建的,需要一種超越孤立監管的新方法。機器可能會提高金融效率,但同樣可以引發下一次危機。

風險一:羊群效應

Gensler指出的風險之一是「羊群效應」(herding effect),其中多方做出類似的決定。這種行為已經上演了無數次:金融機構湧入一籃子次級抵押貸款,播下了2008年金融危機的種子。對少數科技公司生產的人工智慧模型的日益依賴增加了這種風險。這些系統的不透明性也使監管機構和機構難以評估他們所依賴的數據集。

羊群效應(herding effect)亦稱為群聚效應或從眾效應,經濟學裡常用此描述經濟個體的群聚行為(herd behavior),因為人類亦有盲目從眾的本能,會一窩蜂地做出相同反應;這種情況,在金融市場尤其常見。央行對於羊群效應的解釋還不錯。

風險二: 可解釋性悖論

另一個危險在於可解釋性的悖論,Gensler 在 2020 年作為麻省理工學院學者共同撰寫的一篇論文中指出了這一點。如果人工智慧預測很容易理解,那麼可以使用更簡單的系統來代替。正是他們基於學習產生新見解的能力使他們變得有價值。但它也妨礙了問責制和透明度;例如,基於歷史數據的貸款模式可能會產生帶有種族偏見的結果,但確定這一點需要事後調查。

人工智慧演算法通常是多層次的過程,包含很多隱藏層,這是很難解釋的

對人工智慧的依賴也鞏固了科技公司的權力,這些公司越來越多地進入金融領域,但不受嚴格監督。 這與金融領域的雲計算有相似之處。 在西方,亞馬遜、微軟和谷歌三巨頭為最大的貸款機構提供服務。 這種集中引發了競爭問題,並至少提供了將市場推向其選擇方向的理論能力。 它還產生了系統性風險:2021年亞馬遜網路服務的中斷影響了從機器人真空吸塵器生產商Roomba到約會應用Tinder等公司。 交易演算法的問題可能會引發市場崩潰。

監管機構過去曾抵制技術和金融的尷尬關係,就像Meta的數字貨幣Diem(以前稱為Libra)一樣。但要降低人工智慧的風險,需要擴大金融監管的範圍,或者推動不同部門的當局更有效地合作。鑒於人工智慧有可能影響每個行業,這種合作應該是廣泛的。信用違約交換(CDS)和抵押債務債券(CDO)的歷史表明,“孤立”思維是多麼危險。

當局還需要從那些相信人工智慧將征服世界的人的書中吸取教訓,並專注於結構性挑戰而不是個案。美國證券交易委員會本身在七月份提出了一項規則,解決預測數據分析中可能存在的利益衝突,但它側重於經紀交易商和投資顧問使用的單個模型。監管應該像研究具體案例一樣研究底層系統。

新盧德主義(Neo-Luddism )是沒有道理的;人工智慧對金融服務來說並不是固有的負面影響。它可用於加快信貸交付,支援更好的交易或打擊欺詐。監管機構參與這項技術也是受歡迎的:進一步採用可以加速數據分析並發展機構理解。如果監管人員有正確的工具來保持人工智慧的正常運行,人工智慧可以成為金融的朋友。

新盧德主義(Neo-Luddism )是一種反對多種形式的現代技術的哲學思想,以活躍於1811年到1816年的盧德運動命名。這些團體和一些現代新盧德主義者的共同特點,是搗毀技術設備或棄之不用,以及提倡簡樸的生活。新盧德主義源於技術對個人、團體和環境有負面影響的觀點。新盧德主義者也擔心未來新技術可能產生的未知影響。