算法決策司法風(fēng)險及防范

時間:2022-04-10 10:37:07

導(dǎo)語:算法決策司法風(fēng)險及防范一文來源于網(wǎng)友上傳,不代表本站觀點(diǎn),若需要原創(chuàng)文章可咨詢客服老師,歡迎參考。

算法決策司法風(fēng)險及防范

摘要:隨著算法和算力的突破式發(fā)展,人工智能技術(shù)幾乎滲入到各個領(lǐng)域內(nèi),司法領(lǐng)域也不例外。“人工智能+法學(xué)”作為國家人工智能發(fā)展的新規(guī)劃,為我國法律行業(yè)的發(fā)展帶來了機(jī)遇;也為人工智能算法決策司法裁判的應(yīng)用過程中帶來了挑戰(zhàn)。文章在對算法決策在司法領(lǐng)域中的風(fēng)險進(jìn)行分析,并提出了一些建議,以期對算法決策在司法領(lǐng)域更好地融合。

關(guān)鍵詞:人工智能;算法決策;司法領(lǐng)域

國家在《新一代人工智能發(fā)展規(guī)劃》中對人工智能在法律領(lǐng)域的應(yīng)用做了前瞻性的布局設(shè)想,其中“人工智能+法學(xué)”的教育培養(yǎng)新模式,①為人工智能在法律各行業(yè)的應(yīng)用充分展開,儲備了基礎(chǔ)。在美國,人工智能在司法領(lǐng)域的應(yīng)用已久;尤其是在刑事訴訟程序,算法決策在法官的審理、量刑、假釋等一系列輔助過程中,起著重要作用,主要是在預(yù)測是否再次犯罪的評估上;同時,這一點(diǎn)也帶來了廣泛的討論。②究其原因,算法作為一種技術(shù),被當(dāng)作是公平、中立的應(yīng)用在司法領(lǐng)域;算法決策在因主觀任性和客觀局限而導(dǎo)致的問題上,往往比人類表現(xiàn)的更具客觀和公正;但是,算法技術(shù)在決策時就一定是公正的嗎?答案是否定的。一方面,算法在人工智能中是以代碼的形式,安排著機(jī)器在運(yùn)算、處理問題時的順序和步驟,在決策中具有大腦般的作用,體現(xiàn)著算法設(shè)計者的目的和思想,所以它本質(zhì)上也不可能是完全客觀、中立。另一方面,算法在匯編結(jié)束到完成仍需要不斷地進(jìn)行數(shù)據(jù)訓(xùn)練,以保證算法的不斷完善;但若是采集的數(shù)據(jù)不具備客觀性的話,人工智能在應(yīng)用中就不免會出現(xiàn)偏差,產(chǎn)生偏見。

一、算法決策對司法的風(fēng)險

在人工智能算法深度學(xué)習(xí)中,算法在決策過程中會產(chǎn)生“算法黑箱”這一特點(diǎn),即使是算法設(shè)計者本人也不知道這一決策時如何產(chǎn)生的,想要找出問題根源亦是很難,那么這一特點(diǎn)就會出現(xiàn)這樣一種情況,出現(xiàn)問題后,應(yīng)當(dāng)如何歸責(zé),技術(shù)上的難題直接導(dǎo)致法律責(zé)任無法歸咎的風(fēng)險。算法決策的偏見會削弱司法人員的主體地位。現(xiàn)在,各類司法輔助辦案系統(tǒng)被普遍采納應(yīng)用,這一系統(tǒng)輔助過程會涉及到:自動對證據(jù)材料進(jìn)行審核,類案的推送,量刑的數(shù)據(jù)參考等,人工智能逐步滲透到司法過程的各階段;在高智能輔助系統(tǒng)中,輔助系統(tǒng)會自動根據(jù)案件的犯罪事實、相關(guān)法條、量刑情節(jié)、量刑幅度生成可供司法人員參考的文本,因為未參與案件的整個過程,只是對案件事實等進(jìn)行數(shù)據(jù)化的選擇、歸類;該系統(tǒng)不會對本案件進(jìn)行深刻而全面的了解;司法不是簡單地對三段論的論斷,亦不是機(jī)器對法律各要件的匹配,而是需要對人和社會生活情況的深刻理解;算法在運(yùn)行中會進(jìn)行比較,采用相似性做決策,具有差異性的就會被排除,往往看似不重要的細(xì)枝末節(jié),卻具有著關(guān)鍵性的作用,如若在司法過程中偏倚算法決策得出的參考文本,也就干擾了司法人員的獨(dú)立判斷,影響司法人員的主體地位。

二、算法決策風(fēng)險之防范進(jìn)路

無論從目的還是功能上來看,司法智能輔助系統(tǒng)都是對司法人員獨(dú)立判斷的輔助;智能輔助系統(tǒng)雖然在解決案多人少、司法腐敗等問題上成效明顯,但是司法人員作為司法責(zé)任主體,應(yīng)當(dāng)注意防止過度依賴輔助辦案,在結(jié)案陳詞、文書說理部分應(yīng)該詳細(xì)表達(dá)決策過程,這樣既可以保證過程的公開透明,又可以防止出現(xiàn)流水線作業(yè)式的裁判文書。“算法黑箱”的存在,增加了算法決策的不透明性,帶來了治理上的難度。借鑒國外的經(jīng)驗是:具有黑箱性質(zhì)的算法系統(tǒng)不能被用到公共福利、公共教育、公共醫(yī)療等一系列核心公共機(jī)構(gòu)領(lǐng)域中來;對能夠被應(yīng)用的司法智能系統(tǒng),對其算法的設(shè)計和監(jiān)管,要有法學(xué)各攸關(guān)方參與進(jìn)來;對除涉密外的算法,向公眾公開,方便接受公眾的監(jiān)督。③在算法數(shù)據(jù)訓(xùn)練可能受到“污染”的風(fēng)險時,通過先對采用數(shù)據(jù)進(jìn)行篩查,以確保算法訓(xùn)練所需要數(shù)據(jù)的質(zhì)量。由于,數(shù)據(jù)訓(xùn)練算法時,數(shù)據(jù)樣本越全面,數(shù)量越多,算法的結(jié)果精確度就越高;在眾多的樣本數(shù)據(jù)中,通常會混入社會中既有的一些歧視;因此,在采用數(shù)據(jù)之前,應(yīng)當(dāng)對數(shù)據(jù)做符合法律和道德倫理的價值檢測,對可能影響算法的歧視數(shù)據(jù)進(jìn)行校正。

三、余論

正如,蘋果公司的CEO蒂姆•庫克在麻省理工學(xué)院2017屆畢業(yè)典禮演講中指出,“我并不擔(dān)心人工智能像人一樣思考,我更關(guān)心的是人們像計算機(jī)一樣思考,沒有價值觀,沒有同情心,沒有對結(jié)果的敬畏之心,這就是為什么我們需要像你們這樣的畢業(yè)生,來幫助我們控制技術(shù)”。④我們不知道以后的人工智能是否會像人類那樣有同情心和敬畏之心,但可以肯定地說,在人工智能時代,無論發(fā)展至如何,我們需要的是像人一樣具備同情心和敬畏之心的“算法決策”。

作者:張帆 單位:廣州大學(xué)法學(xué)院