FX168財經報社(北美)訊 英國央行的喬納森·霍爾(Jonathan Hall)表示,人工智能系統,特別是涉及交易的系統,應該接受廣泛的訓練和測試,以確保它們在各種情況下都能如預期地運行。
央行金融政策委員會的外部成員表示,人工智能對金融部門存在幾個潛在危險,監管機構必須認識到這一點,否則將面臨“嚴重的金融動蕩”。
霍爾在Bristol演講時表示,“深度交易代理雖然在好的時期提高了效率,但可能導致金融市場變得越來越脆弱和高度相關。”
“深度交易代理的激勵可能會與監管機構和公共利益的激勵發生錯位,”他補充道。
霍爾是未來工作研究所(IFOW)創始人圈的成員,並正在愛丁堡大學攻讀哲學博士學位。
他表示,人工智能代理可以通過幾種方式放大非銀行金融的現有脆弱性。這包括假設的AI“Flo”,即機器可以學習不始終符合市場監管的利潤最大化策略。
他說,解決這個問題的一個方法是訓練人工智能系統遵守一個“憲法”,該憲法可以指導它們在監管框架內的行動。
霍爾對人工智能如何與金融市場互動以潛在地使其通過人類難以預測或控制的新興行為而動蕩表示擔憂。
他還警告說,人工智能代理可能會發生勾結和新興通信,其中人工智能代理勾結並對控制不可解釋的通信方式構成挑戰。
高級人工智能系統可能會制定涉及勾結的策略,而無需明確的人類指導或意識。這些策略可能源自系統的互動,並且對人類理解是不透明的,使得監視和監管這些策略的潛在風險變得困難。
霍爾說:“多代理人強化學習的前沿研究表明,勾結風險是新興溝通的更廣泛範疇的一部分。由於這通常對人類來說是不可解釋的,因此很難監視和控制由此產生的任何風險。”
他補充說,人工智能系統最終可能會學會繞過監管措施,通過優化利潤最大化的方式來遵守法律的字面意義,但並非法律的精神。這包括適應市場濫用規定的方式,這種方式可能仍然會破壞市場的公平性和完整性。
霍爾擔心,在人工智能系統在市場運動中發揮重要作用的情況下,由於人工智能驅動的活動的速度和複雜性,人類操作者可能會發現在危機期間有效幹預變得困難。
他說,監管機構應探索以下回應措施,以鼓勵人工智能采用,同時最大程度地減少風險。
培訓、監控和控制
人工智能系統,特別是涉及交易的系統,應該在接受廣泛的訓練和測試,以確保它們在各種情況下都能如預期地運行。實施嚴格的監控和控制機制,包括風險和止損限制,以管理和減輕可能損害市場的不穩定行為。
監管框架
確保人工智能系統在遵守現有監管框架的情況下開發和運行。這包括訓練人工智能系統理解和遵守監管要求,就像它們是其操作“憲法”的一部分一樣。持續更新培訓,以解決任何發現的人工智能行為與監管意圖之間的差異,確保隨着時間的推移實現一致性。
壓力測試
應定期進行嚴格的壓力測試,利用對抗性技術更好地了解人工智能系統在極端條件下可能如何反應。壓力測試不僅應驗證性能和合規性,還應探索人工智能系統對不同市場動態的反應,旨在發現任何潛在的破壞性行動。
合作努力
鼓勵監管機構、市場參與者和人工智能安全專家之間的合作,制定標準和最佳實踐,以確保人工智能技術對市場穩定產生積極影響。促進關於人工智能在金融市場中影響的討論,以為應對和減輕潛在風險做準備。
市場範圍討論
發起關於將監管規則納入人工智能系統的市場範圍討論,這有助於交易管理者了解並實施人工智能治理的最佳實踐。促進透明度和在公司間分享見解,以促進對人工智能風險和監管的共同理解和方法。