算法決策司法風(fēng)險(xiǎn)及防范
時(shí)間:2022-04-10 10:37:07
導(dǎo)語:算法決策司法風(fēng)險(xiǎn)及防范一文來源于網(wǎng)友上傳,不代表本站觀點(diǎn),若需要原創(chuàng)文章可咨詢客服老師,歡迎參考。
摘要:隨著算法和算力的突破式發(fā)展,人工智能技術(shù)幾乎滲入到各個(gè)領(lǐng)域內(nèi),司法領(lǐng)域也不例外?!叭斯ぶ悄?法學(xué)”作為國(guó)家人工智能發(fā)展的新規(guī)劃,為我國(guó)法律行業(yè)的發(fā)展帶來了機(jī)遇;也為人工智能算法決策在司法裁判的應(yīng)用過程中帶來了挑戰(zhàn)。文章在對(duì)算法決策在司法領(lǐng)域中的風(fēng)險(xiǎn)進(jìn)行分析,并提出了一些建議,以期對(duì)算法決策在司法領(lǐng)域更好地融合。
關(guān)鍵詞:人工智能;算法決策;司法領(lǐng)域
國(guó)家在《新一代人工智能發(fā)展規(guī)劃》中對(duì)人工智能在法律領(lǐng)域的應(yīng)用做了前瞻性的布局設(shè)想,其中“人工智能+法學(xué)”的教育培養(yǎng)新模式,①為人工智能在法律各行業(yè)的應(yīng)用充分展開,儲(chǔ)備了基礎(chǔ)。在美國(guó),人工智能在司法領(lǐng)域的應(yīng)用已久;尤其是在刑事訴訟程序,算法決策在法官的審理、量刑、假釋等一系列輔助過程中,起著重要作用,主要是在預(yù)測(cè)是否再次犯罪的評(píng)估上;同時(shí),這一點(diǎn)也帶來了廣泛的討論。②究其原因,算法作為一種技術(shù),被當(dāng)作是公平、中立的應(yīng)用在司法領(lǐng)域;算法決策在因主觀任性和客觀局限而導(dǎo)致的問題上,往往比人類表現(xiàn)的更具客觀和公正;但是,算法技術(shù)在決策時(shí)就一定是公正的嗎?答案是否定的。一方面,算法在人工智能中是以代碼的形式,安排著機(jī)器在運(yùn)算、處理問題時(shí)的順序和步驟,在決策中具有大腦般的作用,體現(xiàn)著算法設(shè)計(jì)者的目的和思想,所以它本質(zhì)上也不可能是完全客觀、中立。另一方面,算法在匯編結(jié)束到完成仍需要不斷地進(jìn)行數(shù)據(jù)訓(xùn)練,以保證算法的不斷完善;但若是采集的數(shù)據(jù)不具備客觀性的話,人工智能在應(yīng)用中就不免會(huì)出現(xiàn)偏差,產(chǎn)生偏見。
一、算法決策對(duì)司法的風(fēng)險(xiǎn)
在人工智能算法深度學(xué)習(xí)中,算法在決策過程中會(huì)產(chǎn)生“算法黑箱”這一特點(diǎn),即使是算法設(shè)計(jì)者本人也不知道這一決策時(shí)如何產(chǎn)生的,想要找出問題根源亦是很難,那么這一特點(diǎn)就會(huì)出現(xiàn)這樣一種情況,出現(xiàn)問題后,應(yīng)當(dāng)如何歸責(zé),技術(shù)上的難題直接導(dǎo)致法律責(zé)任無法歸咎的風(fēng)險(xiǎn)。算法決策的偏見會(huì)削弱司法人員的主體地位。現(xiàn)在,各類司法輔助辦案系統(tǒng)被普遍采納應(yīng)用,這一系統(tǒng)輔助過程會(huì)涉及到:自動(dòng)對(duì)證據(jù)材料進(jìn)行審核,類案的推送,量刑的數(shù)據(jù)參考等,人工智能逐步滲透到司法過程的各階段;在高智能輔助系統(tǒng)中,輔助系統(tǒng)會(huì)自動(dòng)根據(jù)案件的犯罪事實(shí)、相關(guān)法條、量刑情節(jié)、量刑幅度生成可供司法人員參考的文本,因?yàn)槲磪⑴c案件的整個(gè)過程,只是對(duì)案件事實(shí)等進(jìn)行數(shù)據(jù)化的選擇、歸類;該系統(tǒng)不會(huì)對(duì)本案件進(jìn)行深刻而全面的了解;司法不是簡(jiǎn)單地對(duì)三段論的論斷,亦不是機(jī)器對(duì)法律各要件的匹配,而是需要對(duì)人和社會(huì)生活情況的深刻理解;算法在運(yùn)行中會(huì)進(jìn)行比較,采用相似性做決策,具有差異性的就會(huì)被排除,往往看似不重要的細(xì)枝末節(jié),卻具有著關(guān)鍵性的作用,如若在司法過程中偏倚算法決策得出的參考文本,也就干擾了司法人員的獨(dú)立判斷,影響司法人員的主體地位。
二、算法決策風(fēng)險(xiǎn)之防范進(jìn)路
無論從目的還是功能上來看,司法智能輔助系統(tǒng)都是對(duì)司法人員獨(dú)立判斷的輔助;智能輔助系統(tǒng)雖然在解決案多人少、司法腐敗等問題上成效明顯,但是司法人員作為司法責(zé)任主體,應(yīng)當(dāng)注意防止過度依賴輔助辦案,在結(jié)案陳詞、文書說理部分應(yīng)該詳細(xì)表達(dá)決策過程,這樣既可以保證過程的公開透明,又可以防止出現(xiàn)流水線作業(yè)式的裁判文書?!八惴ê谙洹钡拇嬖?,增加了算法決策的不透明性,帶來了治理上的難度。借鑒國(guó)外的經(jīng)驗(yàn)是:具有黑箱性質(zhì)的算法系統(tǒng)不能被用到公共福利、公共教育、公共醫(yī)療等一系列核心公共機(jī)構(gòu)領(lǐng)域中來;對(duì)能夠被應(yīng)用的司法智能系統(tǒng),對(duì)其算法的設(shè)計(jì)和監(jiān)管,要有法學(xué)各攸關(guān)方參與進(jìn)來;對(duì)除涉密外的算法,向公眾公開,方便接受公眾的監(jiān)督。③在算法數(shù)據(jù)訓(xùn)練可能受到“污染”的風(fēng)險(xiǎn)時(shí),通過先對(duì)采用數(shù)據(jù)進(jìn)行篩查,以確保算法訓(xùn)練所需要數(shù)據(jù)的質(zhì)量。由于,數(shù)據(jù)訓(xùn)練算法時(shí),數(shù)據(jù)樣本越全面,數(shù)量越多,算法的結(jié)果精確度就越高;在眾多的樣本數(shù)據(jù)中,通常會(huì)混入社會(huì)中既有的一些歧視;因此,在采用數(shù)據(jù)之前,應(yīng)當(dāng)對(duì)數(shù)據(jù)做符合法律和道德倫理的價(jià)值檢測(cè),對(duì)可能影響算法的歧視數(shù)據(jù)進(jìn)行校正。
三、余論
正如,蘋果公司的CEO蒂姆•庫(kù)克在麻省理工學(xué)院2017屆畢業(yè)典禮演講中指出,“我并不擔(dān)心人工智能像人一樣思考,我更關(guān)心的是人們像計(jì)算機(jī)一樣思考,沒有價(jià)值觀,沒有同情心,沒有對(duì)結(jié)果的敬畏之心,這就是為什么我們需要像你們這樣的畢業(yè)生,來幫助我們控制技術(shù)”。④我們不知道以后的人工智能是否會(huì)像人類那樣有同情心和敬畏之心,但可以肯定地說,在人工智能時(shí)代,無論發(fā)展至如何,我們需要的是像人一樣具備同情心和敬畏之心的“算法決策”。
作者:張帆 單位:廣州大學(xué)法學(xué)院