人工智能技術下刑法學問題分析
時間:2022-10-20 04:50:15
導語:人工智能技術下刑法學問題分析一文來源于網(wǎng)友上傳,不代表本站觀點,若需要原創(chuàng)文章可咨詢客服老師,歡迎參考。
摘要:人工智能技術下刑法學存在著內(nèi)部風險、外部風險等問題。由于一些刑法規(guī)章制度的不完善,給人工智能技術的應用帶來很大風險。針對刑法學中存在的問題,提出應對人工智能技術下刑法問題的有效策略,如:統(tǒng)一罪刑法定工作準則、刑法重點保護公民信息安全、設定人工智能禁區(qū),及時應對人工智能技術下的刑法風險。
關鍵詞:人工智能技術;刑法學;存在的問題;應對措施
人工智能技術下的刑法學問題是近年來司法管理制度中新出現(xiàn)的一種現(xiàn)象,主要表現(xiàn)為內(nèi)部風險、外部風險等刑法風險問題。應結(jié)合風險問題的發(fā)生特點與規(guī)律,提出最佳的風險應對措施,全面提高人工智能技術下的刑法應用效果,為人工智能技術在刑法學中的應用提供技術保障。
1人工智能技術下的刑法學問題分析
1.1內(nèi)部風險問題。近年來,在大數(shù)據(jù)、信息技術、智能算法等技術快速發(fā)展的過程中,人工智能技術得到了廣泛的應用,其技術水平也實現(xiàn)了飛躍式的發(fā)展。但隨之衍生出很多內(nèi)部刑事風險問題與安全問題,主要表現(xiàn):一是人工智能技術的應用,經(jīng)常會受到一些不法分子的攻擊,或者采用人工智能系統(tǒng)進行違法操作,出現(xiàn)了海量的信息泄露現(xiàn)象,導致很多的保密信息被人為地泄露出來,無法保障數(shù)據(jù)信息的安全性。二是在人工智能技術管理的過程中,如果不能合理使用信息數(shù)據(jù),將導致用戶的個人信息無法正常應用。且在人工智能技術下,一些犯罪人員利用大數(shù)據(jù)技術,肆意侵害集體和個人的利益,如果此類問題不能得到及時遏制,將會給國家和個人造成嚴重的經(jīng)濟損失。三是在人工智能技術內(nèi)部系統(tǒng)的運行過程中存在很多運算方法方面的漏洞,給人工智能系統(tǒng)帶來很多錯誤決策,一旦引發(fā)問題,就會出現(xiàn)數(shù)據(jù)外區(qū)現(xiàn)象,很容易影響人們對價值觀念的正確認識。因此就需要刑法的及時介入,確保人工智能系統(tǒng)的良好運行,預防各種風險問題的發(fā)生。1.2外部風險問題。人工智能刑法問題可表現(xiàn)在外部風險方面:首先是濫用人工智能技術的刑事風險。人工智能技術的應用存在很多利弊,如正當使用,就能給人們的生產(chǎn)與生活帶來便利,具有積極的影響。如果不能正常使用,將會給計算機系統(tǒng)帶來很多風險問題。利用人工智能技術進行犯罪具有一定的特殊性,其犯罪的基礎成本較低,一般情況下只使用計算機、網(wǎng)絡技術就能夠?qū)φw的網(wǎng)絡系統(tǒng)造成威脅,而且掌握人工智能技術水平的不法分子,還能制造出人工智能產(chǎn)品,如:2017年的時候,網(wǎng)絡犯罪分子就利用計算機專業(yè)知識識別驗證碼,獲取到一些網(wǎng)絡公司的賬號和登陸密碼,從而獲取到群眾的信息,倒賣其信息并且對群眾進行詐騙。在分析這個犯罪案例的時候發(fā)現(xiàn),如若犯罪分子采用人工智能技術進行相關的犯罪活動,不僅犯罪的成本很低,還會誘發(fā)嚴重的信息安全事件。其次,人工智能技術的不完善也給人們使用人工智能技術帶來風險。在使用與管理人工智能技術的工作中,如果存在智能技術或設計漏洞,將會誘發(fā)很多外部風險問題。如:采用人工智能技術與交通工具相互整合,會形成無人駕駛的模式,可以為人們提供高質(zhì)量的服務。但是,如果人工智能技術的設計與開發(fā)存在問題,在無人駕駛的過程中會出現(xiàn)交通事故問題,將會誘發(fā)嚴重的后果,表明人工智能技術可將內(nèi)部風險轉(zhuǎn)換成為外部風險,給人們使用人工智能技術帶來很多安全風險。1.3人工智能技術下的刑法定位。1.3.1刑法應該促進人工智能技術的良好發(fā)展。刑法的出臺主要是為了維護社會正常秩序,而這個目的與人工智能技術服務于人、改善社會生活的目的是相互一致的,無論在何種狀況下,刑法都不應該對智能技術的發(fā)展形成桎梏,相反,刑法應該對智能技術起到良好的引導作用,將社會的發(fā)展作為導向,使人工智能技術向著良性的方向發(fā)展,起到一定的推動作用和促進作用,從根本上促進人工智能技術的發(fā)展。1.3.2刑法應該服務于人人工智能技術的應用。不能增加人們的負擔,這個觀念應該貫徹在刑法領域中。在刑法領域內(nèi),服務于人的思想主要體現(xiàn)在刑事責任的規(guī)則方面,雖然人工智能技術的應用行為與風險問題的責任及開發(fā)使用者有直接的聯(lián)系,但是不能將責任單純歸于開發(fā)與使用者,應該考慮到智能技術的實際應用情況,明確具體的負責人。
2應對人工智能技術下刑法問題的有效策略
2.1統(tǒng)一罪刑法定工作準則。人工智能技術的應用經(jīng)常會出現(xiàn)一些問題,在刑法方面不能單一的分析出現(xiàn)問題的原因,還需明確具體的刑法理念與原則,其中最為重要的就是罪刑法定準則。目前,將保障人權(quán)作為內(nèi)涵、罪刑法定的這個原則屬于較為重要的底線。在未來的發(fā)展過程中,人工智能技術的應用一旦出現(xiàn)問題,還是要將罪刑法定作為基本準則。如果在某個項目中將濫用人工智能的做法當做統(tǒng)一條款,將會誘發(fā)“口袋罪名”,造成群眾的隱私信息泄露問題,導致公共風險和國家安全問題。在此過程中,刑法就應該保持一定的謙抑性,如:在人工智能技術應用期間,要借助計算機的基礎設備與技術,很可能發(fā)生機器人問題、著作權(quán)保護問題等,在此情況下,機器人的法人、著作權(quán)等歸屬于人類,可以按照具體的犯罪行為與實際情況界定,盡量避免一些不正確的司法手段干擾人工智能技術的使用與發(fā)展,例如:“刑法萬能”的錯誤認知。要正確地將非刑事法律的作用發(fā)揮出來,從而有效規(guī)避使用人工智能技術時所存在的問題[1]。2.2刑法重點保護公民的信息安全。在人工智能技術的應用期間,經(jīng)常會出現(xiàn)公民信息安全泄露問題。在此情況下,除了要增強人工智能技術使用者與管理者的技能水平,強化數(shù)據(jù)的安全保護力度,還要將刑法的作用發(fā)揮出來,全面保護公民信息的安全性,預防出現(xiàn)信息泄露現(xiàn)象??紤]到公民信息的保護,在刑法方面應強化侵犯公民信息安全的懲罰力度,明確公民信息安全隱患的發(fā)生特點,有效地界定公民信息,并提出保護公民信息安全的具體做法[2]。2.3設定人工智能禁區(qū)。我國人工智能技術得到了快速發(fā)展,為避免使用中出現(xiàn)問題,應結(jié)合實際情況在法律方面對使用者進行約束與管理。建議國家出臺相關的法律法規(guī),禁止影響人工智能技術的情況發(fā)生,確保各種信息的安全性。由于人工智能技術的應用有利有弊,在為人們帶來便利的同時,仍存在很多安全隱患問題。在此情況下,應該結(jié)合人工智能技術的發(fā)展,制定完善的準入制度,全面開展監(jiān)督與管理工作,強化人工智能技術監(jiān)管的力度,有效掌控人工智能技術的應用范圍與領域。同時,在刑法方面應該從內(nèi)部與外部方面給予人工智能技術一定的約束,強化宣傳力度,使從事人工智能技術的人員學會自律,完善自我的約束機制。為有效規(guī)范人工智能技術的應用行為,在實際工作中應制定完善的刑法制度框架,人工智能技術開發(fā)者與管理者要樹立正確觀念,約束自身行為,促進人工智能技術的健康發(fā)展。還可以采用刑事立法的形式,設置人工智能技術的禁止令,禁止在一些不安全的條件下使用人工智能技術,一旦違反規(guī)則,就要處罰技術的使用者與管理者,并追究其責任。在立法過程中,應積極提出法律監(jiān)督的建議與規(guī)則,預防人工智能技術應用中發(fā)生潛在的風險問題[3-4]。
參考文獻:
[1]谷立岐.人工智能的刑法學問題研究[J].法制與社會,2019,34(35):211-212.
[2]馬皚,宋業(yè)臻.人工智能“法官”的一種實現(xiàn)路徑及其理論思考[J].江蘇行政學院學報,2019,46(02):86-92.
[3]黃京平,包涵.面向歷史與未來的刑法學研究[J].人民檢察,2019,11(02):10-17.
[4]賈元,焦旭鵬.走向未來的刑法學—“社會變遷與刑法科學新時代”學術研討會綜述[J].人民檢察,2019,35(03):67-69.
作者:凡銳麗 單位:鄭州升達經(jīng)貿(mào)管理學院