忘穿内裤电影院被c了,国产xxxⅹ野性xxxxhd,成人免费网站,法国白嫩大屁股xxxx

彩神v中國
聯(lián)系電話: 010-8882344888
生成式人工智能在征信領域的應用研究:前景、風險與對策
日期:2024-11-07 23:59:21 

  彩神v摘要:生成式人工智能憑借強大的自主學習能力、關聯(lián)分析能力、結果輸出能力,在征信領域具有提高信息輸入效率、提升信用評估準確性、生成與解讀信用報告、預知風險的應用潛能,但也面臨著多重挑戰(zhàn)。

  結合技術原理與征信領域的特性,可從輸出結果的質量問題、數(shù)據(jù)泄露的安全問題、信息處理的合規(guī)問題三個方面剖析征信領域應用生成式人工智能的風險隱患。

  為平衡創(chuàng)新發(fā)展與風險防范,應在規(guī)范體系層面倡導目標導向式的框架性立法、以人為本確立基本原則,在治理主體層面倡導協(xié)同共治、多元參與,在監(jiān)督管理層面倡導包容審慎的監(jiān)管立場與分類分級的監(jiān)管方式并行。

  傳統(tǒng)專家系統(tǒng)式的人工智能技術,由于一切決策都基于給定的規(guī)則設計,因而不具備理解復雜指令、事物背景的能力,僅能勝任對簡單任務的執(zhí)行。生成式人工智能技術則能夠根據(jù)給定的提示,憑借在訓練數(shù)據(jù)中學習的模式和規(guī)律,自主生成新的、原創(chuàng)性的內容,因而具有開放性和拓展性,可以被應用于更廣泛的場景之中執(zhí)行不特定任務,更好地處理生產生活中的復雜問題,這為各行業(yè)實現(xiàn)業(yè)務創(chuàng)新與流程革新提供了更加先進的工具和手段。

  以美國 Open AI 公司于 2022 年 11 月推出的自然語言處理模型ChatGPT為標志,人工智能發(fā)展實現(xiàn)了從“規(guī)則式”到“生成式”的技術模式轉變,有關研究與應用均被推向一個新的高度,迅速成為數(shù)字經濟發(fā)展的最新趨勢。

  在此背景下,“人工智能+”于2024年被首次寫入我國《政府工作報告》之中,這不僅是對發(fā)展人工智能技術重要性的強調,更是全面推進科技與經濟深度融合的行動計劃,旨在通過人工智能于各個領域的高效應用,在資源配置、知識擴散、業(yè)態(tài)創(chuàng)新等方面產生顯著影響,進一步賦能創(chuàng)新升級與服務效率提升。

  同年4月,中國人民銀行征信管理局提出支持征信機構運用大數(shù)據(jù)、人工智能等新技術進行產品創(chuàng)新,為普惠金融發(fā)展提供多元化、差異化的信用信息服務。作為應用較早且成效顯著的一個領域,從智能客服到信用數(shù)據(jù)的處理,人工智能技術早已在征信業(yè)中發(fā)揮了重要作用。不過,如同其他行業(yè)一樣,此前征信領域應用的人工智能技術多以規(guī)則式的專家系統(tǒng)為主,在范圍上相對有限。生成式人工智能技術的出現(xiàn)帶來了新的可能,但也伴隨著新的風險與挑戰(zhàn)。

  本文旨在探索生成式人工智能在征信領域的應用前景,并在系統(tǒng)梳理可能面臨的風險隱患基礎之上,試從治理對策的角度,就如何平衡創(chuàng)新發(fā)展與風險防范的關系展開論述。

  生成式人工智能的底層架構由多層人工神經元組成,靈感來自于人腦的結構和功能。依托這種架構,生成式人工智能相比以往的人工智能技術在解決問題的方式上會更像人類,在自主學習能力、關聯(lián)分析能力與結果輸出能力方面有著質的突破,這為其在征信領域的應用奠定了技術基礎。

  專家系統(tǒng)式的人工智能在架構上包括兩個部分:一是擁有特定知識和經驗的知識庫;二是負責解釋和調度工作的推理機。在技術原理上,由推理機將用戶輸入的信息與知識庫中各個規(guī)則的條件進行匹配,并將被匹配規(guī)則的結論呈現(xiàn)給用戶。以智能客服為例,通過將用戶遇到的常見問題與對應的解決舉措預設在知識庫,人工智能就能夠對用戶的反饋作出及時回應,從而有效降低用人成本。

  然而,由于程序執(zhí)行的結果完全基于知識庫中預設的規(guī)則,其在投入使用前需要通過人工的方式逐一設計,且一旦用戶輸入的信息超出預設的范圍,將會無法輸出有效的結果,因此存在制作成本高、可移植性與通用性差的弊病。

  生成式人工智能則以機器學習為技術原理,這也是其強大理解能力和內容生成能力的基礎。在其架構中,開發(fā)者并不給定預先設置的規(guī)則,而是由機器通過大規(guī)模的訓練數(shù)據(jù)自主學習,從中捕捉輸入信息與輸出結果之間在統(tǒng)計學意義上的關聯(lián),利用機器自身學習所得的“經驗”輸出內容,包括提供信息、回答問題、圖形繪畫、解釋概念、提供建議和自動編程等。

  可以說,這種架構賦予了人工智能持續(xù)性、實時性的自主學習能力,只需要將現(xiàn)有的相關數(shù)據(jù)集“投喂”給人工智能進行自訓練、自學習,其就能夠不斷適應新環(huán)境、新場景和新任務,以實現(xiàn)對不同領域、多種任務的處理,而無需人為介入再去設計細致、全面的規(guī)則。

  因此,盡管在早期階段可能會有較高的訓練成本,但這種持續(xù)性的自主學習能力意味著生成式人工智能具有技術原理上的可移植性與通用性,能夠經過“微調”被推廣到不同的應用場景,并在規(guī)模效應的作用下大幅降低每個具體場景的開發(fā)成本。

  基于機器學習的技術原理,還給生成式人工智能帶來了自適應的關聯(lián)分析能力。相比自主學習能力對可移植性與通用性的側重,關聯(lián)分析能力使得人工智能無需人為進行顯著的干預,就能夠經過不斷迭代和自我完善,持續(xù)提升分析和挖掘事物之間多維度關聯(lián)性的能力,提高輸出結果的精確性。

  專家系統(tǒng)式的人工智能被設計出來的前提,在于某一領域的知識經驗被人所熟悉掌握,從而人們能夠根據(jù)條件與結果之間的關聯(lián)性設計出線性的因果規(guī)則。然而,在諸多復雜領域中,條件與結果之間的關聯(lián)性并非是簡單線性的,而是多維度的,知識與經驗不可能為人們所完全掌握。AlphaGO與人類在圍棋上對弈的例子,更是表明了人們所認為存在著的關聯(lián)性未必就是正確的。

  基于機器學習的生成式人工智能,則能夠在自我迭代與進化中持續(xù)優(yōu)化、動態(tài)升級,使輸出的結果不斷接近真實世界運作的情況:根據(jù)縮放定律(scaling law),只要訓練數(shù)據(jù)夠大、參數(shù)夠多、算力夠強,生成式人工智能就能展現(xiàn)出相應級別的涌現(xiàn)能力(emergent abilities);這種涌現(xiàn)能力又不斷地反饋給自身,以幫助其持續(xù)改進關聯(lián)性分析模型,提高輸出表現(xiàn),甚至作出比人類更為精準、高效的關聯(lián)性分析。

  譬如,在生物學領域,傳統(tǒng)的蛋白質解構方法可能需要數(shù)年時間,才能描繪出單個蛋白質的形狀,成本高昂的同時還不能保證成功解析其結構。而接受過大量蛋白質結構數(shù)據(jù)訓練的人工智能,能夠結合物理、化學和生物學的先驗知識,在較短時間內就可以給出對蛋白質結構解析的預測模型。

  在持續(xù)性的自主學習能力和自適應的關聯(lián)分析能力加持下,生成式人工智能具有遠超傳統(tǒng)人工智能的理解能力與交互能力,使得用戶無需學習編程語言就能夠實現(xiàn)與機器的對話,并以此為基礎,在結果輸出能力上有質的突破。

  以 ChatGPT 為例,基于 Transformer 的機器學習架構使其能夠借助自注意力機制高效地處理序列數(shù)據(jù),并具有理解該序列所對應的前后序列的能力,通過捕捉語言之間的關系和結構來幫助生成更一致與更關聯(lián)的響應,從而作出邏輯連貫的回答。

  于是,ChatGPT得以在幾十輪連續(xù)對話中保持對話主題的一致性和專注性,且具有相當程度的交互能力與修正能力,可以根據(jù)對上下文的理解以及用戶的反饋來改進自身生成的內容。不僅如此,其還可以通過關鍵詞提取、命名實體識別和句法分析等技術,從長篇文本中提取關鍵信息并進行匯總和歸納,以形成精煉且高度相關的內容概括。這使得ChatGPT的輸出結果具有相當?shù)膫€性化,經過簡單的“微調”就可在不同場景中滿足用戶的多樣化需求。

  例如,在醫(yī)療衛(wèi)生領域,經過預先訓練的ChatGPT能夠根據(jù)用戶提供的癥狀、年齡、病史等資料提取關鍵信息,結合醫(yī)學知識生成簡明扼要的個性化診斷建議或治療方案。值得一提的是,ChatGPT 甚至能夠在對話中捕捉到用戶的語言情緒、措辭習慣等個性化特征,并據(jù)此生成接近用戶風格的回答。這種以擬人化的姿態(tài)給予使用者人性化交流的感受,正是生成式人工智能的獨特之處。

  處在信息技術與金融服務的交叉領域,每一次技術的進步都會促使征信業(yè)發(fā)生飛躍。根據(jù)我國《征信業(yè)管理條例》第2條規(guī)定,完整的征信業(yè)務流程可概括為輸入、處理、輸出三個階段。生成式人工智能的嵌入,有助于更加便捷高效地完成上述三個階段的工作。

  征信業(yè)務在輸入階段的工作主要是對信用信息的采集與整理。傳統(tǒng)的信用評估中,征信機構需要通過逐一采集的方式,對征信對象的信用信息進行識別、整理,這在線下、低頻的交易模式中并無大礙。互聯(lián)網時代,具有大量、高頻、小額特點的線上交易模式,催生了海量、廣泛的信用數(shù)據(jù),這迫使信息的采集、整理方式必須調整至與之相適應。

  此前,大數(shù)據(jù)、爬蟲等技術的應用,已經極大簡化了信息的采集與整理流程。然而,由于操作門檻高,針對新場景需要重新設計算法,上述技術的全面推廣仍然受到成本方面的掣肘。得益于生成式人工智能強大的學習能力與自然語言處理能力,使用者不需要具有專業(yè)的計算機知識,就能夠通過日常用語向機器提出需求,使“每個人都可以成為一個程序員”。這大大降低了此類技術的使用難度,有助于征信機構降低信息輸入的工作成本,提升整體效率。

  首先,征信機構只需輸入篩選的條件與要求,經過訓練、“微調”的生成式人工智能就能夠借助其自主學習形成的算法迅速完成海量信用信息的采集。其次,借助生成式人工智能提取關鍵信息、匯總、歸納的能力,征信機構能夠以極低的人力資源、極短的工作時間對海量數(shù)據(jù)進行整理,實現(xiàn)信用信息輸入工作的高效完成。

  傳統(tǒng)征信業(yè)務在處理階段的工作,主要是由輸入的信用信息經過給定的算法或規(guī)則計算完成。由于是人為設計且固定不變的,因此會存在算法不夠完善、無法具體情況具體分析、無法及時調整規(guī)則等方面的弊端,以至于影響評估結果的準確性,使其無法反映真實情況。例如因部分信息的不理想而被一刀切列入負面清單。

  生成式人工智能在處理階段的嵌入,有助于提升信用評估的準確性。具體而言,經過海量信用數(shù)據(jù)的訓練,生成式人工智能可以憑借其關聯(lián)分析能力,構建更為復雜和全面的評估模型;并在此基礎上,結合征信對象的歷史數(shù)據(jù)與個性,不斷完善、深化模型,避免因部分信息的不理想而導致整體評估存在偏見,最終促使評估結果更加趨近個體的實際情況。

  Google公司就曾在對消費者作信用評估時發(fā)現(xiàn),人工智能可以對那些僅擁有部分信用記錄的消費者得出相對良好的信用評估結果。在對消費者負面信息進行深入挖掘的過程中,評估模型通過替代數(shù)據(jù)的尋找和補償,發(fā)現(xiàn)不少傳統(tǒng)規(guī)則下為負面評價的消費者其實具有很強的還款意愿,從而給出了更為真實、準確的信用評估。

  生成式人工智能在征信業(yè)務的輸出階段同樣應用前景廣泛,其個性化的結果輸出能力,使其在生成、解讀信用報告方面具有巨大潛力。

  一方面,憑借提取關鍵信息、歸納總結的能力,生成式人工智能能夠對先前整理所得的信用信息作進一步的整合分析,并在自然語言理解能力和生成能力的加持下,根據(jù)使用者在內容、格式等方面提出的要求,自動批量地生成不同側重、不同篇幅的信用報告,從而替代大量的人工操作和處理流程。

  另一方面,從征信的目的來看,使用者所需要的并非是信用報告本身,而是隱藏在信用報告背后的信用評估結論。就報告本身而言,雖然包含豐富的信用信息,但由于這些信息都是非結構化的,通過排列組合能夠得到不同的結論,因此如何有效解讀信用報告中大量的非結構化信息,一直都是信用評估的重點與難點。對于經過預先訓練的生成式人工智能來說,由于其出色的自然語言理解能力和結果輸出能力,完全可以從使用者思維的角度解讀冗長的信用報告,并通過不斷地交互與對話明確使用者的真正需求,給出針對性的意見或建議,有效幫助使用者準確把握信用報告中的關鍵內容。

  傳統(tǒng)的征信業(yè)務以報告的出具為流程終點,報告內容是對征信對象過去行為的總結與回顧,最終的風控措施往往由使用者根據(jù)對報告的自身解讀作出。然而,由于每個人都會有自己的主觀看法與偏見,同時受限于專業(yè)知識的不足,由此形成的風控措施就會不可避免地帶有某種系統(tǒng)性偏差。

  生成式人工智能在機器學習深入的過程中,可以根據(jù)不同對象的歷史數(shù)據(jù)或“趨勢性”數(shù)據(jù)構建個性化的預測模型,在此基礎上結合實時數(shù)據(jù)流來感知潛在的風險變化,全面評估面向未來的信用風險,因而具有將業(yè)務流程拓展至風險監(jiān)測環(huán)節(jié)的潛能。而且因為減少了人為因素所致的系統(tǒng)性偏差,從某種意義上來說,生成式人工智能相對于人類個體而言具有更為一致、穩(wěn)定的風險預知能力。更值一提的是,自主學習與關聯(lián)分析的能力還使得生成式人工智能特別擅長識別異常情況,這對發(fā)現(xiàn)可能的欺詐行為或不尋常的交易活動至關重要。這種針對性反饋的能力正是如今復雜、多樣的社會信用環(huán)境所急需的。通過對異常行為的提示,金融機構可以及時采取措施預防損失發(fā)生。

  生成式人工智能在征信領域的多方面應用潛能,雖然能夠助力征信機構實現(xiàn)更為精準、定制化及實時的信用評估服務,幫助金融機構做好風險管理,保護自身利益并維護市場穩(wěn)定,但目前該項技術距離在征信領域的成熟應用,仍然面臨著一系列的挑戰(zhàn)。

  雖然相比以往的人工智能,生成式人工智能在自然語言處理能力上取得了重大突破,但在深度語義理解、邏輯連貫性以及特定知識的整合運用上還存在諸多不足,這使得其輸出的文本在專業(yè)性上難以保證。

  依賴于統(tǒng)計學關聯(lián)而非因果推理的技術原理,使得生成式人工智能尚且只能做到對淺層信息的歸納與整理,而缺乏專業(yè)角度的深入分析,無法真正像人類那樣理解和解釋復雜信息背后的底層邏輯或深層次含義。這種缺陷又進一步導致了其在邏輯連貫性上的短板,可能因前序理解的不深入而引起后續(xù)分析的割裂。

  此外,生成式人工智能在其模型訓練中所注重的是通用性的語言表達能力,對于不同領域專業(yè)知識的訓練往往是淺薄且分散的,因此學到的專業(yè)知識同樣是碎片化的,無法保證其在細分領域的專業(yè)深度。

  由此,如果在訓練數(shù)據(jù)中缺乏征信領域的專業(yè)知識,那么輸出的結果在形式上可能存在專業(yè)性不足的問題。盡管能夠進行針對性的“微調”,但在征信領域的嚴格規(guī)則限制下,對專業(yè)知識的運用往往需要深入理解信息之間的交互作用、因果關系,而不僅僅只是概率上的關聯(lián)。在當前技術水平下,生成式人工智能雖然可以做到對專業(yè)報告在復雜文本結構和語言模式上的模仿,但因在深層邏輯上缺乏因果推理能力而無法捕捉到信息之間的細微差別,其模仿的結果仍可能會是“一本正經地胡說八道”。

  通過在征信領域的針對性訓練,配合圍繞征信規(guī)則設計的專家系統(tǒng)和知識圖譜,輸出結果在文本專業(yè)性上的不足能夠得到一定彌補。然而在內容可靠性上,生成式人工智能存在著難以克服的自身缺陷,具體包括內容偏見和內容失實兩個方面。由于在表現(xiàn)形式上更為隱蔽,這種危害更甚。

  內容偏見的缺陷,是因為生成式人工智能輸出的結果在根本上取決于算法的選擇以及用于模型訓練的龐大數(shù)據(jù)庫。這就可能帶來如下隱患:開發(fā)者出于特定的利益考量或自身偏好去設計帶有偏見的算法,或者使用帶有偏見的數(shù)據(jù)樣本進行訓練,生成式人工智能的輸出結果就可能會更符合開發(fā)者的個人意圖而背離客觀中立的價值立場。這種情況下,生成式人工智能絕非是一個價值中立、沒有偏見的工具。譬如,出于對地域或職業(yè)的偏見,開發(fā)者可能會主觀地認為某一類群體的信用狀況較差,如果這種沒有根據(jù)的想法被融入算法或數(shù)據(jù)庫之中,人工智能的輸出結果就會呈現(xiàn)出某種偏向,作出的信用評估可能導致某一類群體的利益受到嚴重損害。

  內容失實的缺陷,根源仍然在于生成式人工智能基于統(tǒng)計學關聯(lián)而非基于因果推理的技術原理。因此對于輸出的內容是否真實準確,人工智能自身無法作出有效判斷,甚至可能會因為必要信息缺失、替代信息不存在而捏造虛假信息。美國就曾發(fā)生過律師錯誤引用ChatGPT編造的虛假案例的事件。如果生成式人工智能輸出的虛假信息被誤用于信用評估,勢必嚴重影響征信結果的可靠性,從而進一步導致相關風險管理舉措缺乏合理性。

  與其他計算機程序一樣,生成式人工智能作為一套復雜系統(tǒng),自身可能存在諸多未知的風險隱患。諸如算法設計不當、存儲系統(tǒng)異常、安全漏洞等技術缺陷,都會導致其在模型的訓練過程中面臨數(shù)據(jù)泄露的安全隱患。微軟、亞馬遜等多家科技公司就曾警告員工不要與ChatGPT分享任何敏感信息,以免數(shù)據(jù)泄露而導致商業(yè)利益受損。事實證明,這種擔憂并非空穴來風。

  在 2023 年 3 月,ChatGPT 發(fā)生了一起極為嚴重的數(shù)據(jù)安全事故,部分用戶的聊天記錄、信用卡信息、電子郵件等信息遭到泄露,而這可能是因為部分涉及個人信息的數(shù)據(jù)被模型用于訓練后未及時刪除,疊加內部開源數(shù)據(jù)庫出現(xiàn)技術故障所致。

  隨著人們對數(shù)據(jù)安全的進一步重視與發(fā)展,去標識化、匿名化等技術手段日漸成熟。然而,生成式人工智能在模型訓練過程中所涉及的數(shù)據(jù)體量之大、處理主體之多、處理環(huán)節(jié)之長,遠超傳統(tǒng)的數(shù)據(jù)處理系統(tǒng),“一招不慎、滿盤皆輸”,其所面臨的泄露風險也會成倍增加。為使分析、輸出的結果更加精準,征信領域應用生成式人工智能勢必需要借助專業(yè)的信用數(shù)據(jù)庫進行針對性訓練。

  通常來說,信用數(shù)據(jù)包括了身份識別、金融賬戶等高度敏感的個人信息,一旦泄露或者被非法使用,極容易導致自然人的人格尊嚴受到侵害或者人身、財產安全受到危害,造成難以挽回的災難性后果。

  除技術缺陷在模型訓練中引起的直接泄露風險之外,生成式人工智能還存在著一種數(shù)據(jù)間接泄露的風險。由于人工智能需要通過不斷地自我迭代來持續(xù)升級和優(yōu)化模型,因此在理論上,存在上一版本訓練過程中收集得到的數(shù)據(jù)被下一版本作為訓練成果而輸出的可能性,從而泄露包括用戶上傳的敏感數(shù)據(jù)、個人信息和商業(yè)機密在內的訓練數(shù)據(jù)。

  盡管生成式人工智能在發(fā)布時通常都會采取安全措施,盡可能地刪除有關信息或作匿名化處理,但從現(xiàn)有的技術水平來看,完全、徹底的刪除或匿名化都是無法實現(xiàn)的,因而仍然會有部分信息殘留被最終發(fā)布的模型所輸出。自然,對于一般的個人使用者來說,這些分散在不同輸出結果中的信息殘留并無太大的利用價值。但由于數(shù)據(jù)挖掘、分析的技術不斷進步,如今業(yè)已形成了一種通過對比、組合海量數(shù)據(jù),將零碎信息拼湊、組合形成完整信息的“拼圖技術”。別有用心者能夠以此實現(xiàn)對信息的再識別,且每一次的再識別都會助長未來的再識別,最終在高頻、漸進的迭代累加下,任何分散的信息碎片都可能通過不斷拼湊而形成完整的數(shù)據(jù)集。由于形式上的隱蔽性,利用數(shù)據(jù)的間接泄露達到非法目的將會很難被發(fā)現(xiàn)和察覺,嚴重時還可能威脅到國家數(shù)據(jù)與社會金融體系的安全性。

  處理個人信息應當具有明確、合理的目的,且必須與處理目的直接相關,并采取對個人權益影響最小的方式,不得過度收集,此即為我國《個人信息保護法》所規(guī)定的個人信息處理之目的限制原則。從信息輸入端來看,生成式人工智能突破目的限制原則的情形屢屢發(fā)生,信息處理存在合規(guī)問題。

  個人信息處理者在收集個人信息時,通常需采取“一對一”的方式在告知程序中向信息主體明確說明個人信息的處理目的并取得同意;倘若處理目的發(fā)生變更,則需要再次履行告知程序并重新取得同意。但絕大多數(shù)情況下,生成式人工智能并不會就信息的收集以及后續(xù)在模型訓練中的處理情況向信息主體作出明確提示,用戶甚至無法知道與之相關的個人信息是否已經被收集,更無從知悉個人信息的處理目的。

  即便已經明確告知信息主體相關處理目的并取得同意,隨著應用場景發(fā)生變化,生成式人工智能對此前收集所得的個人信息進行重新處理也是十分常見的。由于涉及的信息在數(shù)量上十分巨大,逐一向信息主體重新取得同意不具備實現(xiàn)的可能性,模型訓練直接面臨合規(guī)性考驗。更需要關注的是,與征信有關的個人信息通常都高度敏感。從我國《個人信息保護法》的規(guī)定來看,只有具備特定的目的和充分的必要性,并在取得個人單獨同意的情況下,方可處理敏感個人信息。這意味著對信用信息的處理許可不容許被用戶的概括同意所包括,而必須取得個人信息主體的單獨同意,甚至在特定情況下還需要取得用戶的書面同意,無疑給征信領域應用生成式人工智能的合規(guī)性帶來了更為嚴峻的挑戰(zhàn)。

  根據(jù)我國《個人信息保護法》第24條規(guī)定,利用個人信息進行自動化決策,應當保證決策的透明度和結果公平、公正。從運行原理來看,征信領域應用生成式人工智能分析信用數(shù)據(jù)、輸出信用評估報告符合自動化決策的定義,應當嚴格遵守這一條款,確保決策透明度和結果的公平、公正。前文已對算法、數(shù)據(jù)偏見引起的輸出結果質量問題有所論及,在此不再贅述。關鍵在于,即便是在算法中立客觀、公開透明的情況下,生成式人工智能在信息輸出端也會因算法的可解釋性不足而面臨合規(guī)性考驗。

  既有研究認為算法可解釋性不足的原因主要包括兩個方面:一是算法的專業(yè)性與復雜性,在一定程度上犧牲了算法的可解釋性;二是在商業(yè)秘密與知識產權制度的保護下,算法可解釋的行動力會受到阻礙。

  因此在對策建議上,如果涉及公眾利益,通常會追求算法的備案、算法的審查乃至算法的全面公開。然而,生成式人工智能的算法模型不僅高度專業(yè)與復雜,其決策更是以相關性為基礎,得出的結論遠非因果關系所能夠解釋清楚的。“知其然而不知其所以然”的決策過程,使得算法的公開透明毫無意義,因為即便是算法的設計者自身,也無法理解算法是怎樣作出決策的。

  同樣根據(jù)《個人信息保護法》第24條規(guī)定,通過自動化決策方式作出對個人權益有重大影響的決定時,個人有權要求個人信息處理者就決策過程、決策依據(jù)予以說明。毫無疑問,征信評估的結果與個人切身利益關系密切。在算法自身無法保證決策透明度的情況下,如何向征信對象解釋決策過程,將會是征信機構應用生成式人工智能的重大挑戰(zhàn)。

  技術上的突破,使得生成式人工智能在征信領域具有相當可觀的應用前景,但同時也面臨著前述諸多挑戰(zhàn)。因此,亟須通過制定切實的治理對策,在充分開發(fā)應用潛能的同時,預防潛在風險造成的損害。

  從規(guī)制的對象來看,征信領域應用生成式人工智能面臨的風險隱患,可進一步劃分為不當使用產生的風險和系統(tǒng)自身存在的風險。就前者來說,在一定程度上仍可以通過傳統(tǒng)的要件式立法(例如侵權法)予以管制。但就后者而言,作為新生事物,生成式人工智能技術發(fā)展變化較快,情況相對復雜,傳統(tǒng)追求制度普遍性與穩(wěn)定性的要件式立法容易導致規(guī)制過度或規(guī)制不足,難以支撐起技術迭代、模式變革所需要的發(fā)展空間。

  因此,有必要引入一種目標導向式的框架性立法理念,以立法者意圖實現(xiàn)的目標為行為指引,將目標達成的方式、方法、路徑等事項精準授權給征信機構和開發(fā)者,在確保能夠達成目標的情況下,由機構和開發(fā)者自主選擇與目標相適宜的規(guī)制方式、行為標準、實現(xiàn)手段。

  從意圖實現(xiàn)的目標來看,征信領域應用生成式人工智能應當包括提升征信服務質效、加強征信風控水平和保護個人合法權益三項目標。

  在具體的立法進路上,一是可以參照我國2024年3月發(fā)布的《人工智能法(學者建議稿)》,在未來的人工智能立法中設置專門的條款,將征信領域明確規(guī)定為特殊應用場景;二是在征信領域繼續(xù)加強法律制度供給,現(xiàn)有《征信業(yè)管理條例》《征信機構管理辦法》《征信業(yè)務管理辦法》在效力層級上較低,僅為行政法規(guī)、部門規(guī)章,且并未對信用信息的使用邊界、應用場景予以明確,在制定發(fā)布時尚未顧及人工智能發(fā)展對征信業(yè)可能的影響,有必要在將來制定“征信法”時,將生成式人工智能作為一項重要因素考慮在內。

  以上兩條立法進路都需要對前述三項目標予以明確規(guī)定。但為預留技術運用的試驗空間,總體上應當持較為寬松的規(guī)制立場,賦予征信機構和人工智能的開發(fā)者更多自主權限,允許其自行設計與風險程度相匹配的程序及規(guī)則,通過“盡力合規(guī)”的方式達成目標。與此同時,為避免因規(guī)則指引不清晰引發(fā)自主權限被濫用、誤用,必須強化責任擔當,建構以目標達成度的判斷、目標內涵的解釋與手段選擇的說理為核心的動態(tài)法治框架。

  鑒于技術的迅速迭代和對業(yè)務創(chuàng)新的有益推進,目標導向式的框架性立法不宜設置過細的法律義務和過重的監(jiān)管負擔,但仍應存在基本原則作為不可逾越的“底線”。

  一方面,法治應當充分保障人的自主性,算法決策卻在有意無意間逃離了法律之治,集中體現(xiàn)為法治觀念所強調的問責性價值流失,這與人自主進行的行為選擇存在本質上的差異。對人工智能的過度依賴,大有將人從決策主體淪落為決策“客體”之勢。

  另一方面,科技發(fā)展的目的是要更好地服務于人,在2023年10月中央網信辦發(fā)布的《全球人工智能治理倡議》中,在倡議首條即明確表示,“發(fā)展人工智能應堅持‘以人為本’理念……確保人工智能始終朝著有利于人類文明進步的方向發(fā)展”。這既是我國發(fā)展人工智能對世界的承諾,也是我國對處于人工智能時代的每個人的承諾。為此,需要圍繞以人為本的法治理念,確立如下幾項征信領域應用生成式人工智能的基本原則。

  一是輔助性原則。生成式人工智能在原理上注定了其存在現(xiàn)有技術水平下難以彌合的固有缺陷,但由此引發(fā)的風險并非是不可控的,通過適時的人工介入,在很大程度上可以有效降低系統(tǒng)運行的風險,因此要堅持“人在回路”。“人在回路”是指人類作為算法決策的把關者介入算法決策的具體應用場景,承擔包括糾正算法錯誤、判斷是非、維護人類利益等在內的多重任務。

  在征信領域應用生成式人工智能同樣應當堅持“人在回路”,明晰其工具定位、輔助定位,以人工復核的形式對決策結果作最終定論,通過人的在場確保人類理性、人類倫理、人類價值觀的在場,起到對決策內容準確性的擔保與監(jiān)管作用,避免算法歧視、數(shù)據(jù)偏見對征信對象合法權益造成侵害。

  二是正當程序原則。正當程序主要包括事先告知、說明理由、公平公正、聽取陳述和申辯、提供救濟途徑幾個方面。生成式人工智能在信息的收集和處理上都存在透明度問題,容易損害信息主體的知情權,在涉及信用信息等敏感個人信息時存在嚴重的合規(guī)風險。

  對此,征信機構在引入生成式人工智能輔助業(yè)務工作時,特別需要保障征信對象的知情權,應當告知征信對象可能被收集的個人信息類型、用途,并且需要根據(jù)我國《個人信息保護法》的相關規(guī)定,就自動化決策的存在作出說明,向征信對象提供自動化決策不針對其個人特征的選項,或者提供拒絕自動化決策的便捷途徑。

  三是比例原則。在可預見的將來,生成式人工智能還不能夠很快實現(xiàn)決策過程完全透明、決策結果完全可解釋,但也并不意味著完全的不透明與完全的不可解釋。對此,應當堅持比例原則,實現(xiàn)合乎比例的風險管理,確保目標導向式的立法理念得到落實。

  例如,對于征信對象權益潛在影響越大,則越應當追求生成式人工智能算法的成熟性,確保決策過程、決策結果具有與風險程度相適宜的透明度及可解釋性;對于受制于技術水平限制而無法提高透明度與可解釋性的算法,則應當在保留應用范圍與應用程度的同時,增加人工介入的比例,避免因技術不成熟造成的損害。

  征信業(yè)務涉及個人信息保護、數(shù)據(jù)安全、金融穩(wěn)定等多個方面,本身就具有跨部門監(jiān)管的特點。疊加生成式人工智能跨領域、跨行業(yè)應用的發(fā)展趨勢,構建跨部門協(xié)同治理機制更為緊迫,有利于整合資源,提高治理舉措的一致性和執(zhí)行力度。

  我國曾于2023年制定發(fā)布了《生成式人工智能服務管理暫行辦法》,在治理主體上涉及國家發(fā)展改革委、科技部、工信部等在內的七個部門。然而,由于尚處于制度建設剛起步的早期階段,目前就如何有效協(xié)同治理生成式人工智能而言,仍然存在因部門之間責任劃分不清晰而“趨利避害”的隱患:對于存在困難的“壞事”可能相互扯皮,對于存在利益的“好事”則爭相管理,最終致使治理無法形成合力。

  征信領域應用生成式人工智能牽涉的部門更多,更容易出現(xiàn)“參與者越多,責任歸屬時越容易相互推諉”的“多手問題”(the problem of many hands)。為此,首先應當充分考慮到生成式人工智能在征信業(yè)務中的輔助性地位,建立以征信業(yè)監(jiān)督管理部門為核心機構的統(tǒng)籌協(xié)調治理機制,明確各個部門的職責劃分。

  其次,要建立橫跨多部門的信息共享機制,通過透明、實時的信息交互,消除“職責孤島”與“信息孤島”,避免多頭管理。再次,要加強建設問責機制和交流機制,一方面通過有力的問責避免“多手問題”出現(xiàn),對于未能按照職責劃分造成管理混亂或矛盾的責任方給予相應處罰,同時鼓勵積極主動配合,對協(xié)同成效顯著的部門予以獎勵;另一方面則通過增進各部門間對彼此職能、業(yè)務特點和需求的理解,提升協(xié)同工作的默契度。

  現(xiàn)代社會,私營部門不再只是被治理的對象,也是治理的主體。從規(guī)制理論來看,由私營部門參與的多元合作機制是對政府治理短板的必要補缺。

  第一,開發(fā)者的參與能夠在專業(yè)知識上起到補足作用。政府部門雖然具備法規(guī)制定和執(zhí)行的能力,但往往在專業(yè)深度上對新興技術了解不足。相反,開發(fā)者作為生成式人工智能研發(fā)和應用的主要力量,具有豐富的技術經驗和知識儲備。與開發(fā)者合作,能夠有效補足政府部門在專業(yè)知識與技術上的短板,幫助政府準確理解技術現(xiàn)狀與發(fā)展趨勢,進而把握潛在風險,精準施策。

  第二,征信機構的參與能夠在標準共建上起到引導作用。征信領域應用生成式人工智能必須在各個環(huán)節(jié)都確保合法合規(guī)、安全可控。相對來說,長期從事征信業(yè)務的征信機構在業(yè)務合規(guī)、風險管控方面具有不可替代的經驗價值,能夠識別、評估各個環(huán)節(jié)的大致風險,并熟悉相應的防范措施。征信機構的共同參與,有助于引導政府部門制定的行業(yè)標準與行為準則更契合征信業(yè)的實際情況。

  第三,征信對象的參與能夠在風險識別上起到增強作用。無論現(xiàn)代治理體系多么完善、投入的力量如何之多,總是會缺乏一種必不可少、能夠有效發(fā)現(xiàn)并且阻止?jié)撛陲L險的信息資源,而掌握這些信息資源的人,往往是風險損害的當事人。

  在應用生成式人工智能的情況下,無論是征信機構在業(yè)務流程中設置便捷的異議機制,還是政府部門設置投訴舉報機制,都能夠借助征信對象的力量及時捕捉異常信息,起到增強風險識別能力的作用。

  監(jiān)管立場上,對征信領域應用生成式人工智能進行規(guī)制應當包容審慎,堅持原則性與靈活性相統(tǒng)一,既不能以靈活性損害原則性,又不能以原則性束縛靈活性。

  所謂原則性,就是對風險的審慎,需要以集中式治理的監(jiān)管理念,守住不發(fā)生系統(tǒng)性風險的底線。盡管集中式監(jiān)管存在適應性差、缺乏必要彈性等弊端,可能會給技術創(chuàng)新帶來限制,影響行業(yè)的進步與發(fā)展,但其以治理結果為中心,強調秩序性、前瞻性防范與集中性、整體性治理的模式,能夠通過集中監(jiān)管權力來有效解決風險應對不集中、不及時等問題。

  特別是對于征信這樣涉及個人敏感信息處理的重點領域來說,數(shù)據(jù)一旦被泄露或者非法使用都將造成不可挽回的后果,落實立法層面所確立的三項原則離不開強有力的監(jiān)管措施。強化征信領域應用生成式人工智能在重點風險方面的監(jiān)督及管理,有助于實現(xiàn)對風險隱患強有力的整治,從而維護公共利益。

  具體體現(xiàn)為有必要但有限度的監(jiān)管:一是制定征信領域應用生成式人工智能的行業(yè)標準,通過設置準入門檻,確保生成式人工智能具備最低程度的技術成熟度;二是在征信業(yè)監(jiān)督管理部門中,設立獨立的人工智能監(jiān)管機構,對生成式人工智能在征信領域的應用情況以及相應算法進行備案,在必要時予以審查;三是設立問責制,通過要求定期公開使用情況、報告風控措施等方式,確保征信機構實現(xiàn)盡力合規(guī)。

  所謂靈活性,則是對創(chuàng)新的包容,需要以回應式治理的監(jiān)管理念,應對技術發(fā)展帶來的不確定性?;貞街卫硗ㄟ^建立一種靈活適應、包容可持續(xù)的協(xié)調機制,鼓勵企業(yè)主動承擔安全責任,避免政府過度干預而對發(fā)展造成阻礙,能夠充分顧及技術與業(yè)務模式的創(chuàng)新需要,克服集中式治理的僵化與不適應。

  對于征信這樣業(yè)態(tài)與模式多樣的領域來說,包容、互信、開放的監(jiān)管環(huán)境有利于進一步推動行業(yè)整體對數(shù)據(jù)資源的高效利用和良性開發(fā)。具體體現(xiàn)為有限度且靈活的監(jiān)管,在監(jiān)管機構適度發(fā)揮他律性作用的同時,注重引導被監(jiān)管對象發(fā)揮自律性作用,兼顧預防與應對。

  就預防方面而言,在滿足行業(yè)最低標準的前提下,監(jiān)管機構應當鼓勵征信機構根據(jù)自身經營范圍、業(yè)務規(guī)模等自身實際情況,詳盡梳理應用生成式人工智能在信息收集、處理、輸出、存儲等各環(huán)節(jié)所面臨的可能安全威脅,在此基礎上建立周全的風險評估分析機制;就應對方面而言,監(jiān)管機構應當積極推動征信行業(yè)內、征信機構與人工智能開發(fā)者之間建立快速、協(xié)調的應急響應機制,有效控制業(yè)已發(fā)生的危害后果,最小化安全事件所波及的影響范圍。

  我國《生成式人工智能服務管理暫行辦法》第3條初步規(guī)定了分類分級的監(jiān)管方式。不過,這一規(guī)定十分模糊和籠統(tǒng),僅僅以“原則”的形式進行闡述,尚待進一步細化。由于不同領域、不同場景、不同環(huán)節(jié)應用生成式人工智能所面臨的風險在類型與程度上均不可一概而論,因此有必要就如何在征信領域應用生成式人工智能作分類分級監(jiān)管進行專門討論。需要注意的是,盡管分類與分級具有一定的交叉和相似之處,但仍然應當視作兩個不一樣的具體標準,對其予以明確界分。

  首先,應當根據(jù)生成式人工智能的應用場景進行分類,其目的在于通過明確行為性質、劃定處理邊界來定位風險的歸屬,為進一步的分級奠定基礎。根據(jù)應用場景的不同,可以將征信領域對生成式人工智能的應用類型區(qū)分為三大類:

  一是基礎模型類,即對個人或企業(yè)信用歷史、信用數(shù)據(jù)等原始信息進行處理和學習的底層模型,以及在此基礎上構建的信用評分系統(tǒng);二是決策輔助類,例如在信貸審批流程中,生成針對特定申請人的綜合信用報告或者提供貸款決策建議的人工智能系統(tǒng);三是風險監(jiān)測類,如通過實時監(jiān)測交易行為,從而識別潛在欺詐或異常交易模式、預測違約風險的系統(tǒng)。

  其次,應當根據(jù)信息的重要性進行分級,其目的在于確定數(shù)據(jù)泄露或不當使用的可能風險程度,以此決定實施管理措施的力度和類別,實現(xiàn)差異化安全防護。

  具體可以參考歐盟《人工智能法案》中的風險定級,根據(jù)風險程度將監(jiān)管從低到高分為三個等級:

  一級監(jiān)管主要針對非敏感、非核心征信服務等較低程度的風險,如表格材料或客戶服務等文本的自動化生成,這類應用風險相對較低,因而監(jiān)管重點在于保證內容準確性;二級監(jiān)管主要針對中等程度的風險,相對重要但不直接影響信用評估的決策環(huán)節(jié),例如部分自動化評估結果、信用報告的生成,監(jiān)管重點在于確保數(shù)據(jù)源合法合規(guī)、生成過程可追溯、結果公正無誤;三級監(jiān)管主要針對較高程度的風險,通常會直接影響信用評估決策的核心服務,例如高度自動化的信用評級和授信決策模型,監(jiān)管層面需要對其模型算法、公平性和歧視性審查、數(shù)據(jù)安全和隱私保護等方面提出更為嚴格的審核要求。

  在具體措施上,可采用包括但不限于信息披露、算法備案、算法審查和監(jiān)管沙箱等不同力度的工具,實現(xiàn)覆蓋事前、事中、事后全流程的分類分級監(jiān)管。舉例來說,對于風險程度較低的一級監(jiān)管,可能要求征信機構就生成式人工智能的應用作出說明或標識即可;對于風險程度較高的三級監(jiān)管,則可能需要在正式投入使用前在監(jiān)管沙箱受控的環(huán)境下進行測試。還應當認識到的是,由于風險本身的動態(tài)變化,分類分級的監(jiān)管方式自身同樣需要被不斷地審查與調整,使之具備能夠動態(tài)適應實時變化的“可延展性”,實現(xiàn)生成式人工智能應用監(jiān)督管理體系的持續(xù)優(yōu)化和迭代升級。

  2024年3月,聯(lián)合國大會通過了全球首個關于監(jiān)管人工智能的決議《抓住安全、可靠和值得信賴的人工智能系統(tǒng)帶來的機遇,促進可持續(xù)發(fā)展》。

  決議表示,各國認識到“人工智能系統(tǒng)的設計、開發(fā)、部署和使用速度加快,技術變革日新月異,對加快實現(xiàn)可持續(xù)發(fā)展目標具有潛在影響”,為此呼吁抓住“安全、可靠和值得信賴的”人工智能系統(tǒng)帶來的機遇,讓人工智能給人類帶來“惠益”,并以此促進可持續(xù)發(fā)展。

  毫無疑問,生成式人工智能憑借強大的學習能力、關聯(lián)分析能力與結果輸出能力,為征信領域未來的高質量發(fā)展注入了革故鼎新的技術潛力,但也對現(xiàn)有的規(guī)制體系造成了不小沖擊。為此,亟須通過切實有效的治理對策,對創(chuàng)新發(fā)展與風險防范的現(xiàn)實需要作出同步回應。

  不可否認的是,從長遠來看,無論是征信行業(yè)本身,還是生成式人工智能自身的安全風險治理,都不能安于現(xiàn)狀,在推動業(yè)務創(chuàng)新、技術發(fā)展的同時更需要推動治理模式的創(chuàng)新與發(fā)展。概言之,征信領域對生成式人工智能的應用需聚焦于數(shù)據(jù)安全、模型公平性、業(yè)務連續(xù)性以及征信對象的合法權益,在確保技術進步的同時有效防范系統(tǒng)性風險。唯有如此,才能夠與時俱進地引導創(chuàng)新向善、科技向善,共同推動行業(yè)整體的健康有序發(fā)展。