韓振文:數據運用場景下司法認知模式轉型|防范自動化決策的權力異化風險
【ZiDongHua之人文化天下關鍵詞摘要:韓振文 法與自動化 自動化科技 自動化決策 人工智能 信息處理自動化 】
數據運用場景下司法認知模式轉型
數字法治的發展促使司法認知模式發生相應轉型。這里的司法認知模式是從寬泛意義上指稱司法決策的認知模式,不同于訴訟法學中專門概念“司法認知”(Judicial Notice)。它主要指裁判者對案情信息的加工處理裁剪整合與內在心理的計算表征,因而可以運用認知心理學、認知神經科學等知識來深度描述和解釋這種認知思維決策活動。在大數據運用場景下,傳統的司法認知與訴訟證明過程中主體性認知,逐漸由單一的法官主體認知演變為人機混合協同式認知主體。簡言之,由法官獨立決策模式向智審輔助決策模式轉變,或由單一人腦決策轉向聚合智腦決策,這種認知決策模式在保有相對確定性的同時,也愈加顯現出可預測(見)性的附加特質。同時,由于大數據技術在司法主體認知決策領域的深度融合應用,司法認知越來越受智能化、自動化決策的輔助影響,甚至在某些標準化、格式化的簡單民商事案件中,不再是人機混合式的主體認知,而是人工智能司法直接取代了法官的認知裁量。正在全球興起的ChatGPT技術代表了自動化決策的新趨勢。這種轉型的認知模式尤其強調數據信息的安全合規管理與可信高效流通使用。
借助認知科學控制認知偏差
為關切回應包括以上司法認知模式在內的數字法治轉型的強烈需求,學術界提出人工智能法學、認知法學、數字法學、互聯網法學、大數據法學、網絡法學、計算法學、信息法學、數據法學、未來法學等新概念。數據信息本身是流動的、動態的,信息智能革命的本質就是算法、數據和算力的系統融貫應用。對司法認知活動而言,無論是人機交互還是算法自動化決策,大都涉及數據信息的加工處理分析、流動共享、計算表征,因而都可用具有“硬科學”屬性的認知科學視角來加以描述解釋。嚴格來說,認知科學并非一門獨立學科,而是學科深度交叉融合后形成的新興學科群或“領域”科學。它主要包括六個分支學科,即認知心理學、認知神經科學、哲學、語言學、人類學及計算機科學(人工智能)。認知科學旨在全面揭示心智圖式與算法黑箱,實現對“思維的閱讀觀測”,并破解意識難題與跨越解釋鴻溝。
具體到司法認知活動領域,法官建構事實、適用法律的認知過程受到各種主客觀因素影響。司法決策中裁判思維的影響因素錯綜復雜,受多種動機激勵,追求多個目標,裁判思維始終運作在激勵與抑制并存的聯結主義認知網絡之中,受其規范性、個體性、情境性等因素的有效約束。借助認知科學的分析工具,有助于把握裁判者的認知結構與認知規律,認清決策中有意掩蓋的不相關法外因素,從而控制、消減決策中的認知偏見、偏差,逐步達至程序公正與實體公正相統一的裁判。在認知科學視角下對大數據運用的司法認知模式轉型進行理論闡釋,主要探究司法決策的法官認知過程以及人工智能模擬人腦的認知計算、證據推理,對此司法認知活動的受眾發生何種微妙的心理變化,更進一步,這種轉型的司法認知模式伴隨的是算法權力以自動化決策方式滲入正當程序各個環節,可能產生各種公共安全風險,又如何通過重塑(算法)技術程序正義進行有效識別、防控與化解。
法官不可過于依賴智能預測
目前,全域數字法院建設中認知決策愈加呈現出可預測性的特質,也就是愈加注重法官對個案裁判結果預測評估的掌控力,而且隨著司法人工智能輔助系統作出的預測推送越來越高效精準,法官對其依賴程度也越深。當然,域外法院早已開始利用人工智能產品實現對立案后案件結果的預測、訴訟的風險評估、輔助對專家證言的采信等。問題是,這種強調法官事前對案件預判掌控力背后興起的協商性或合作式司法程序(理念),還存在很多立法論、解釋論上的巨大質疑,以及在看到智能預測更具精密化的同時,更應謹慎對待它的作用限度與一些難以化解司法實踐核心需求的困局,而不應在學理上過度夸大甚至神化其功用,防止算法(計算)思維無度介入司法認知決策,導致算法技術權力的異化或濫用。
對此過高奢望或盲目依賴的情況,左衛民教授提出深刻警示,目前由于未結合專門司法需求,所投入的資金與人才資源遠遠不足,使得大部分司法人工智能產品難以發揮作用,未來應降低對司法人工智能的盲目期待,將研發中心從通用領域轉向司法專用領域,轉變司法人工智能的投入模式,大力培養既懂法律又懂技術的專門化、復合型人才。法官進行事實認定、法律適用的認知決策必須是理性的,且服從相關的法律程序約束,而智能自動化預測存在算法黑箱、偏誤、歧視等問題,很難受到理性法律程序約束。更重要的是,對法官來說智能預測推送的并不是“標準答案”而只是相關性的概率預測,只能作為輔助性的參考建議,根本無法全面詮釋確定事實與規范匹配中的法律意義。2022年12月,最高人民法院發布的《關于規范和加強人工智能司法應用的意見》就對此輔助審判的限度與可能產生倫理風險的防范作出了明確規定,人工智能輔助結果僅可作為審判工作或審判監督管理的參考,確保司法裁判始終由審判人員作出;并要求其應用不得違背公序良俗,健全風險管控、應急處置和責任查究機制,防范化解其應用中可能產生的倫理道德風險。
培育公眾對人工智能司法的信任
大數據運用場景下司法認知模式轉型還會涉及公眾的心理態度變化,必然沖擊到公眾對司法決策活動的認知感受。反過來,這種主觀態度的變化也會影響到公眾日常行為模式與守法意識。其中,一種較普遍的心理變化是引發公眾對智能司法的廣泛擔憂與不信任,特別來自數字弱勢群體對此的主觀感知正義匱乏、自主意志權利被“壓抑剝奪”問題。由此,這種不接受、不信任的心態會導致智能司法應用面臨正當性危機,使其無法在實踐中發揮應有優勢。對此特別要培育提升公眾對人工智能司法的信任,應在確保疑難、復雜案件始終由司法裁判者作出的前提下,注重發揮智能司法的普惠便民賦能作用,將其觸角真正深入到基層群眾家門口,從源頭上增強民眾對感知正義的體驗感、獲得感。
防范自動化決策的權力異化風險
大數據運用場景下司法認知模式轉型,不能忽視轉型中蘊含的技術性風險愈發嚴重的問題,因而亟須從程序機制上進行有效規制。從深層次講,這種技術性風險的本質是算法自動化決策的權力異化風險,它侵蝕消解著傳統程序正義的參與性、公開性、交涉性、自治性等內在價值,貶損著人的人格倫理尊嚴。對此如何進行新的程序性機制設計,來防控化解傳統程序正義所面臨的技術性風險,就顯得尤為必要。其中,在“以人為本”智能倫理觀基礎上建構數字化的算法程序正義,可作為一種重要規制路徑與紓解方式。對此,郭春鎮教授指出,以正當程序的要求來介入算法,對算法的程序正義進行相應的法治構造,通過價值注入與制度安排實現算法的程序正義。一方面,注重以風險預防為導向的多元主體協同治理,對算法依賴的數據要素進行協同銜接式合規審查監管,偵查、監察、檢察、法院等機關進行透明坦誠的風險溝通交流,確保程序正義供給來源的安全合法。另一方面,提高算法的可解釋性、可問責性、可信賴性,使算法的程序正義與傳統程序正義的內在價值契合貫通。
(本文系浙江工商大學“數字+”學科建設重點項目“數字時代‘認知法學’創新研究”(SZJ2022B019)階段性成果)
(作者單位:浙江工商大學法學院)
評論排行