金融科技的演進貫穿人類金融文明發展史,每一代技術革新都不僅重塑行業格局,更反映出社會對效率、公平與責任的深刻考量。在當前AI迅猛發展的新時代,AI正以前所未有的規模和深度滲透金融領域,成為推動風險管理、客戶體驗升級的核心動力。日前,中國人民銀行科技司司長李偉在《中國金融》雜志刊文《穩妥有序推進金融領域人工智能大模型應用》中專門論及AI大模型技術在金融領域應用的倫理挑戰與治理思路,提出推動金融智能化轉型的“穩妥有序”路徑。
金融科技屬于新質生產力范疇,是未來重點發力方向,不過金融智能化背后面臨復雜倫理風險,必須加強敏捷治理、預防治理,形成全局性人工智能倫理治理框架,預防黑天鵝或者灰犀牛甚至系統性風險。對于行業決策者、專業人士而言,必須將金融科技領域的倫理治理提上議程,納入企業合規性的重要范疇,加強人員配備與專項治理。
模型幻覺與模型共振:金融AI的技術隱憂
金融是一個高度依賴數據和算法的領域,而AI大模型正在悄然重塑這一領域的運作邏輯。然而,算法可能會不經意間復制和放大社會中既存的偏見,通過微妙卻深刻的方式制造新的不平等。正如李偉所言,大模型面臨的首要風險之一是“模型幻覺”――模型生成內容雖邏輯嚴密卻可能脫離事實與常識,直接威脅金融分析與風險管控的有效性。尤其推理能力增強模型,在提升智能的同時,也加劇了幻覺出現的概率。
更甚者,當金融機構普遍使用同質化的大模型時,將催生“模型共振”效應,形成市場的“羊群行為”,加劇順周期風險和波動,成為監管不可忽視的新隱患。這種現象的本質是,當絕大多數市場參與者基于類似甚至相同的AI模型對市場信息作出反應時,他們之間的行為會趨于高度一致。不同的金融機構雖然背景各異,但使用的AI系統如果依賴于相似的數據集和模型架構,那么在面對同樣的經濟信號、監管政策變動或市場突發事件時,極有可能做出相似甚至同步的投資或風險管理決定。于是,大量資金同向流動或同向撤離便成了可能,市場的價格和流動性表現出被放大了的波動。
此外,算法的“黑箱”屬性嚴重制約了監管透明度和風險預警能力。規模龐大且運作復雜的模型輸出結果難以解釋,使監管機構面臨前所未有的技術理解與介入挑戰,要求金融機構的監管必須實現從事后追責向事前預警的轉變。
更重要的是,金融算法的公平性風險不可忽視。未經嚴密倫理約束的模型訓練,很可能因數據偏差或設計缺陷產生性別、種族、地域等方面的隱性偏見,沖擊金融市場的公平與普惠根基。因此,構建系統化的科技倫理審查體系,成為保障金融科技智能化應用守正創新的關鍵保障。
數據安全與隱私保護:金融AI的不可逾越底線
大模型發展至今,人們愈發感覺,訓練數據決定模型的質量與走向。然而金融數據具有高度敏感性和隱私屬性,稍有不慎便可能導致用戶權益受損或引發數據泄露。更復雜的是,訓練數據可能被惡意“投毒”或包含虛假信息,導致模型做出錯誤甚至扭曲的決策。
針對這種復雜風險,金融機構應當強化數據全流程安全管理和監控,嚴格遵循法律法規,確保用戶隱私權不受侵犯。在AI時代,傳統隱私保護所采取的“知情同意”機制已難以適應大模型的數據使用形態,如何讓用戶真正理解和掌控個人數據,是未來倫理治理的焦點。
一方面,應當建立全產業鏈全周期的隱私保護責任機制。具體而言,金融機構、科技公司、自律組織及從業人員,必須攜手筑牢安全防線,切實履行責任。金融機構應依法合規推動技術應用,科技公司須確保大模型安全可靠,行業組織應當積極制定倫理規范,從業人員嚴守職業道德,實現“有技術不任性,有數據不濫用”,共同防范倫理及法律風險蔓延,保障金融科技健康發展。
另一方面,隱私保護的思路要發生范式轉變。傳統隱私保護觀念主要基于隱私信息“可用不可見”的思路進行加密保護,但由于隱私本身具有具身性、切己性,蘊含重要的人格權益,因此必須轉變保護思路,推動隱私保護思路與原則從離身到具身,從積極向消極,從“為利用而保護”向“先保護再利用”轉變。
人機協同:賦予金融智能以“溫度”
從人機關系角度,人工智能應該構成人的協同者,是輔助人類提升效率和決策質量的重要工具,而非替代甚至壓榨人力。因此可將人工智能系統視為“數字員工”。金融機構應穩妥推動經營模式由經驗驅動向數據驅動轉型,推動金融機構經營服務從傳統的人力、智力模式邁向“人與AI協作”“人監督AI執行”的新階段。這體現了對AI高效率與人類創造力優勢互補的認可,也凸顯關鍵決策仍需人類的在場與把控,保障產品可靠、風險可控。
具體到業務工作與產品運營方面,AI服務對外應始終以用戶為中心,著力提升服務的普惠性和公平性,保障用戶權益不受侵犯。金融機構需通過智能技術降低服務門檻,擴大覆蓋范圍,尤其關注小微企業和弱勢群體的需求。同時,應強化風險管理,確保用戶數據安全和使用透明,提升用戶的金融認知和信任感。對內則需以員工為中心,運用AI解放勞動生產力,減少重復性工作,提高工作效率。通過技術賦能,提升員工的職業幸福感和創新動力,推動人機協同,實現生產力與員工價值的雙重提升。
總體而言,未來金融智能化不僅是技術升級,更是人才結構和職業技能的轉型升級。金融機構要加強員工智能素養培養,推動跨領域知識融合,強化倫理意識和風險管控能力。只有不斷提升員工在AI環境下的適應力,才能確保技術應用安全可靠。對于金融機構和金融從業人員而言,倫理治理必須成為不可或缺的一環,要求形成負責任的使用和監管機制。最終實現AI與人類的協調共生,促進金融行業的穩健可持續發展。
監管創新:構建包容審慎的AI金融治理體系
從監管視角出發,李偉提出“技術中性、包容審慎”的理念,強調堅持法律剛性底線與創新監管并行,營造適度試錯的金融創新環境。這種理念促使金融智能產品向優質化方向發展,同時保障監管不缺位、不失控。目前,我國已出臺智能算法金融應用的信息披露規范,提升透明度和風險識別能力。未來還將制定分級分類的大模型安全標準,構建織密風險防范的“安全網”。這一系列舉措明確了金融智能化發展的合規路徑,為行業安全保駕護航。
具體到監管科技力量建設方面,要充分運用大模型技術提升風險態勢感知水平和多維度風險分析能力,通過技術手段提高監管穿透力與動態調控效能,實現對復雜金融場景的實時監控與風險預警。此外,還需加強跨機構風險信息共享,構建體系化的風險防控框架。另一方面,積極參與國際合作,借鑒《布萊切利宣言》等國際倫理框架,推動負責任的人工智能全球治理。只有這樣,才能有效化解技術帶來的新型風險,推動金融監管向更加智能化、國際化方向發展。
多方協同治理機制也正呼之欲出。金融機構、科技企業、自律組織和監管部門應各司其職,共同承擔起構建開放透明、安全有序且創新驅動的智能金融生態責任。金融機構需嚴格執行倫理標準和法律法規,科技公司則要保障技術研發安全可靠。行業組織發揮橋梁作用,制定切實可行的行業規范,從業人員應提升倫理風險意識,堅守職業道德。各方協同配合,形成合力,才能促進金融智能化健康發展,筑牢防范倫理與法律風險的堅實防線。
結語:技術進步需鐫刻倫理底色
金融領域AI的應用非技術孤島,而是涵蓋安全、倫理、監管與社會責任的系統工程。技術進步必須圍繞“有益、安全、公平”的底線形成人文關懷,踐行“以人為本”的價值取向。只有深刻洞察并積極應對AI倫理問題,構建多元協同的治理體系,才能將AI真正打造成為推動金融高質量發展和普惠金融的創新引擎,而非潛在風險的新源頭。未來的金融智能化,是技術與人文的深度融合,是智能創新與倫理責任的有機共生。
(作者系復旦大學馬克思主義研究院院長助理、中國人民大學倫理學與道德建設研究中心研究員李凌、新華社國際部科技室主任記者孫晶)
(本文基于中國人民銀行科技司司長李偉發表的文章《穩妥有序推進金融領域人工智能大模型應用》,結合國內外AI倫理治理最新論述,力求全面嚴謹地剖析金融AI倫理挑戰及可行的治理路徑。)