算法型信息分發(fā)隱私風險及法律對策

時間:2022-10-13 03:05:14

導語:算法型信息分發(fā)隱私風險及法律對策一文來源于網(wǎng)友上傳,不代表本站觀點,若需要原創(chuàng)文章可咨詢客服老師,歡迎參考。

算法型信息分發(fā)隱私風險及法律對策

【摘要】技術的背后是傳播權(quán)力的擴張,算法信息分發(fā)的迅猛發(fā)展,在邏輯維度、主體維度、內(nèi)容維度以及功能維度給用戶帶來了隱私風險。網(wǎng)絡平臺以迎合受眾需求、追逐商業(yè)價值為出發(fā)點,有可能會違背現(xiàn)有法律規(guī)定,或是利用法律制度的漏洞和缺陷,規(guī)避法律責任。明確網(wǎng)絡平臺對用戶個人敏感信息保護、信息內(nèi)容服務、算法治理的法律責任,以及增強法律對用戶權(quán)利的賦予和限制,有助于防范算法型分發(fā)帶來的隱私風險,實現(xiàn)保護信息產(chǎn)業(yè)發(fā)展與個人隱私權(quán)保護的平衡。

【關鍵詞】算法型信息分發(fā);隱私;法律對策

智能傳播時代算法分發(fā)技術在新聞業(yè)中的應用,給新聞生產(chǎn)帶來深刻變革和廣泛影響。算法型信息分發(fā)的發(fā)展與變化是一種重塑傳播規(guī)則、改變?nèi)藗冋J知的全新制度設計,它的影響主要體現(xiàn)在以下四個維度上:邏輯維度、主體維度、內(nèi)容維度、功能維度。①算法在新聞生產(chǎn)中產(chǎn)生算法風險,其中以數(shù)據(jù)的收集、處理為基礎的算法造成用戶隱私風險的顯著提升。提高法律的適應性,應盡快在現(xiàn)行法律框架內(nèi)對隱私權(quán)保護的問題進行回應,明晰網(wǎng)絡平臺的法律責任,實現(xiàn)大數(shù)據(jù)產(chǎn)業(yè)發(fā)展和公民權(quán)利保護的平衡。

一、算法型信息分發(fā)帶來的隱私風險

第一,在邏輯維度上,算法智能化效果的提升實現(xiàn)深層監(jiān)控,披露整合型隱私。算法分發(fā)以建立在個人數(shù)據(jù)收集基礎之上的算法生產(chǎn)為前提。當前,伴隨萬物皆媒時代的到來,信息將被從更多空間、時間維度上獲取,不僅數(shù)據(jù)收集的體量顯著增加,而且深層監(jiān)控得以實現(xiàn),很多全新領域的數(shù)據(jù)包括一些極為隱秘的個人數(shù)據(jù)也將被收集。例如,基于傳感器等技術的發(fā)展,能夠監(jiān)測用戶生理層面的信息。一方面,信息的全面收集并不區(qū)分個人敏感信息,許多敏感信息是在用戶不知情的情況下被收集的,收集的范圍用戶不得而知。用戶也不知道被收集的信息是否再次流轉(zhuǎn),如果被流轉(zhuǎn)的信息缺乏有效保護,將進一步增加用戶隱私泄露的風險。另一方面,伴隨算法模型的智能化升級,對個人數(shù)據(jù)的全面收集將產(chǎn)生整合型隱私。伴隨算法系統(tǒng)運行效果的精確化,算力在廣度、深度和準確度方面都在不斷提升,單一信息的采集也許并不泄露隱私,但是從海量信息中進行深度挖掘的個人數(shù)據(jù),在結(jié)構(gòu)再結(jié)構(gòu)化之后就能夠產(chǎn)生整合型隱私,個人隱私信息面臨泄露危險。第二,在主體維度上,提供個性化服務的算法模糊公私領域界限,增強隱私風險。智能環(huán)境下,無論OGC、PGC,還是UGC、MGC,“它們都將成為網(wǎng)絡傳播節(jié)點,彼此互聯(lián)互通,構(gòu)建出分布廣泛的網(wǎng)絡界面”,②算法技術獨立或以人機協(xié)作方式侵入私人空間。一是網(wǎng)民以讓渡空間隱私權(quán)的方式,助力網(wǎng)絡企業(yè)進入私人空間。空間隱私權(quán)是隱私保護的重要內(nèi)容。而算法以在私密性場景中為用戶提供個性化服務的方式滿足用戶需求,但用戶必須同意企業(yè)收集社交空間的個人信息才能獲取服務。例如,以關聯(lián)用戶微博的連接方式推送個性化新聞,這就給網(wǎng)絡服務商進入私人領域提供了機會,造成私人空間隱秘性受到破壞的風險系數(shù)上升。二是用戶需求的擴容增強隱私信息披露的風險。用戶為獲取信息服務,愿意主動上傳、個人信息,甚至一些用戶出于博取眼球、換取經(jīng)濟利益的考慮出讓隱私權(quán)。而網(wǎng)絡企業(yè)對社交平臺的個人碎片化信息的分析,能夠輕易獲知信息主體的價值觀、政治傾向、興趣愛好、家庭工作情況、親友信息等私密信息,造成個人隱私的泄露。部分企業(yè)的算法推薦系統(tǒng)為了更深層地洞察用戶需求,會提取個人通訊錄、手機圖片、視頻等信息。這部分敏感信息一旦因網(wǎng)民進入公共空間將轉(zhuǎn)化為公共信息,而由于信息主體對其微弱的控制能力,極易導致用戶的隱私權(quán)益受損。第三,在內(nèi)容維度上,算法加劇輿論危機產(chǎn)生的風險并誘發(fā)輿論暴力。在時空社會學學者看來,一段時間內(nèi)被嵌入的與網(wǎng)絡熱點事件相關的信息與事件數(shù)量越多,行動者之間的相互依賴則隨之增加,事件同步的必要程度也會越大。③由此,網(wǎng)絡空間充斥著大量情感因素的數(shù)據(jù),用戶基于某一網(wǎng)絡事件的情感共鳴極易致使涉事主體受到高關注度,產(chǎn)生輿論危機。同時,個體面對海量的信息,很難具備有效處理和篩選的能力,因而會自發(fā)地將自己關注的主題與內(nèi)容向一部分具有專業(yè)話語權(quán)、有影響力的人或組織靠近。④這就給媒體公司利用話語權(quán)的優(yōu)勢通過算法設置議程,推送偏向性信息,影響甚至操縱輿論提供了機會。媒體公司基于追逐商業(yè)利益目的,直接推送包含涉事主體隱私的信息,或是在算法技術的支撐下推送低俗甚至虛假信息,致使標題黨現(xiàn)象泛濫。這都促進了信息內(nèi)容在傳播過程中的“變異”,對涉事主體的隱私構(gòu)成二次傷害。伴隨輿論危機的爆發(fā),涉事主體的隱私成為公共討論的議題,網(wǎng)民對隱私信息的大量補充性供給甚至可能演化為輿論暴力。更為嚴重的是,伴隨用戶的參與能力以及體驗感的增強,網(wǎng)絡暴力的危害性也會進一步增強。一方面智能化加工技術使網(wǎng)民能夠以修改個人隱私的方式對信息主體進行丑化,尤其是深度偽造技術,這一旦被別有用心之人用于報復,將對信息主體產(chǎn)生嚴重侵害。另一方面虛擬的網(wǎng)絡平臺成為對網(wǎng)民產(chǎn)生切實影響的環(huán)境,大量適配多樣化的場景、沉浸式體驗等情感帶入強的信息傳播增強了用戶體驗,模糊了虛擬和現(xiàn)實之間的界限。通過這個自由創(chuàng)作與互動反思的過程,受眾建構(gòu)起由符號表征所延伸的自我,沉浸在現(xiàn)實場景和虛擬場景之間不斷轉(zhuǎn)換。真實的傳統(tǒng)疆界逐漸坍塌,虛擬也不斷內(nèi)爆成為生命體驗的現(xiàn)實部分。⑤智能化驅(qū)動下的內(nèi)容生產(chǎn)將刺激網(wǎng)民的情緒化表達,加劇網(wǎng)民對涉事主體的娛樂化、戲謔化等非常態(tài)化表達,對信息主體構(gòu)成反復、嚴重的隱私侵害,對信息主體隱私造成的侵害威力亦顯著提升。第四,在功能維度上,算法的預測功能極易侵犯用戶隱私權(quán)益,損害自主性,甚至產(chǎn)生帶有偏見的預測結(jié)果,造成隱私侵害后果的不確定性。伴隨算法預測成本的降低以及預測能力的增強,個人數(shù)據(jù)被使用的情況和場合不斷增多,企業(yè)可以通過多種設備同時采集用戶個人數(shù)據(jù),預測用戶的偏好,進行個性化推送。但這些個性化推送有可能侵犯用戶的隱私權(quán)益。不僅如此,作為建構(gòu)人們認識世界的全新系統(tǒng),雖然算法聲稱以追求客觀描述為目標,但是對于數(shù)據(jù)的預測和披露受到干預力量的影響,限制了人們的自由意志,影響人們的價值判斷,損害了信息主體的人格尊嚴。數(shù)據(jù)的選取夾雜著主觀判斷,算法黑箱中人為程序的植入,導致預測結(jié)果并非建立在純粹客觀、中立的基礎之上。即使數(shù)據(jù)的結(jié)果是客觀真實的,也可能因為觀測主體立場不同,而產(chǎn)生不同的認知。人們更愿意用主觀立場,而不是客觀事實來判斷一個數(shù)據(jù)預測的真實性,在主觀價值介入之后,人們更愿意相信某些數(shù)據(jù),而不相信另外一些數(shù)據(jù)。⑥不論是帶有偏見的預測結(jié)果還是帶有主觀立場的預測結(jié)果,都壓制了我們基于個人自由意志的判斷。在這種情況下,無論用戶能否察覺,實質(zhì)上其個人選擇都很明顯地受到數(shù)據(jù)預測結(jié)果的影響,個人自由意志實際上已經(jīng)被數(shù)據(jù)共享的成果所綁架。⑦一旦帶有偏見甚至失實的隱私信息被揭露,可能引發(fā)歧視,損害個人人格尊嚴。如果帶有偏見的算法被別有用心的人濫用,將可能導致個人身份的污名化,損害信息主體的人格權(quán)益。另外,算法預測結(jié)果的不確定性加劇了用戶隱私披露的風險。從用戶單個信息、行為與隱私風險的相關性角度來看,用戶難以預料自身的行為或者單個信息將來所產(chǎn)生的隱私侵害后果。例如,一個在臉書上表示喜歡(或不喜歡)“扭扭薯條”的人可能不會料到,這一點竟然會成為對于其智力的預測。⑧智能傳播時代,隱私損害后果的滯后性,致使用戶對自己創(chuàng)造的數(shù)據(jù)或是數(shù)據(jù)使用是否造成隱私泄露風險的預判難以實現(xiàn),從而削弱了人們的信息自決能力。更何況,由于算法的預測能力基于技術黑箱,預測的結(jié)果甚至連企業(yè)自身都難以預料,隱私風險也由此進一步加劇。

二、技術霸權(quán)與法律規(guī)制的缺陷

算法基于用戶興趣對信息進行分發(fā)的技術邏輯,被人們稱為實現(xiàn)了用戶賦權(quán)。如果說權(quán)力關系在很大程度上是構(gòu)建在人類思想中的,并且人類思維中的意義建構(gòu)主要取決于傳播網(wǎng)絡中信息的處理和圖像的流動的話,那么我們便可以認為,權(quán)力屬于傳播網(wǎng)絡及其企業(yè)主們。⑨也就是說,所謂的用戶賦權(quán)并沒有實現(xiàn),而是由企業(yè)主們掌控傳播力,并越來越借助算法擴張這一權(quán)力。他們借助算法以掌握信息傳播渠道并對數(shù)據(jù)收集、處理傳達信息的方式,影響思維方式,并對用戶產(chǎn)生行為導向與價值影響。技術背后是網(wǎng)絡巨頭的擴張和壟斷所產(chǎn)生的算法黑箱,彰顯的是傳播組織的控制以及日益增強的政治和資本力量的操控能力,傳播組織以算法的方式擴張傳播權(quán)力,影響社會權(quán)力結(jié)構(gòu),侵蝕用戶隱私權(quán)。媒體公司以追逐商業(yè)價值為出發(fā)點,“目前平臺公司的頂層設計與傳統(tǒng)媒體有著懸殊的價值排序,以往的新聞編輯室以客觀性等專業(yè)主義為主要價值導向,但在算法分發(fā)平臺設計中,專業(yè)價值被置于商業(yè)利益之后”。⑩商業(yè)利益導向引發(fā)實踐中媒體公司市場理性與法治理性的矛盾?!胺ㄖ卫硇裕褪侨祟愒陂L期的社會實踐中總結(jié)概括出來的法治原則,用以指導和規(guī)范人的行為去更好地適應社會歷史發(fā)展規(guī)律?!薄笆袌隼硇?,就是市場在運行實踐中所遵循的規(guī)律,政府和經(jīng)營者必須遵守這一規(guī)律,否則企業(yè)或產(chǎn)業(yè)難以生存與發(fā)展?!?#9322;智能技術環(huán)境下,二者沖突加劇。媒體公司為追逐商業(yè)利益,借助自身優(yōu)勢地位,規(guī)避原本應當履行的法律義務,限制用戶隱私權(quán)。例如,在知情同意原則上,該原則在實際的法律運用過程中屢屢成為企業(yè)隱私侵權(quán)的擋箭牌,部分企業(yè)甚至將其作為違法收集、處理用戶信息的法律依據(jù)。一方面,企業(yè)為擴張傳播力,實現(xiàn)傳媒利益最大化,濫用現(xiàn)有法律的規(guī)定。另一方面,法律總是滯后于技術發(fā)展,企業(yè)能夠迅速對技術尋求突破,而作為保護用戶權(quán)利重要手段的法律制度則顯得遲滯。當前,我國對個人隱私權(quán)的法律保護與人工智能時代技術發(fā)展的速度不匹配,法律制度的漏洞和缺陷致使企業(yè)趁機規(guī)避法律責任。第一,對用戶個人信息保護的責任。既有法律對敏感信息采取單一化界定方式,缺乏結(jié)合情境的多維度認定,媒體公司處理用戶信息的行為主要基于知情同意原則,然而在實踐中知情同意原則流于形式,缺乏多元化的知情同意法律責任認定框架。第二,對信息內(nèi)容服務的責任。由于媒體算法新聞標題黨現(xiàn)象嚴重,存在傳播低俗內(nèi)容、負面情緒以及虛假信息的情形,網(wǎng)絡平臺缺乏完善的人工干預機制,對平臺在重點環(huán)節(jié)呈現(xiàn)正面信息的執(zhí)法標準并不明確。第三,算法治理的責任。警惕當前新聞算法分發(fā)蘊藏著流量偏向、信息操控、平臺利益優(yōu)先等價值傾向,缺乏達成共識的網(wǎng)絡平臺算法方面的行業(yè)自律規(guī)定,進而限制了將成熟的技術性法律規(guī)范轉(zhuǎn)化為合理的法律處罰。第四,網(wǎng)絡空間用戶權(quán)利的賦予和限制方面。我國既有法律對刪除權(quán)的規(guī)定主要限制在特殊主體以及特定領域的信息如違法收集的信息上,刪除權(quán)對象以及義務主體的法律規(guī)定存在局限性,刪除權(quán)具體適用的規(guī)則不明確。智能傳播環(huán)境下對人格權(quán)應當給予更加嚴格的保護,目前“通知+取下”法律規(guī)則在人格權(quán)領域的適用規(guī)則、網(wǎng)絡服務商的法律責任的認定無法滿足智能傳播時代人格權(quán)保護的需求,對網(wǎng)絡表達新技術的立法缺乏前瞻性。

三、隱私風險防范的法律對策

第一,增強網(wǎng)絡平臺保護用戶個人敏感信息的法律責任。首先,確立個人敏感信息的范圍。一般信息出于數(shù)據(jù)產(chǎn)業(yè)利益和信息流通的考慮應當允許企業(yè)利用,包含人格尊嚴,涉及人格利益的敏感信息應當依法進行限制,其中涉及如個體生物信息等敏感信息,需要法律提供超越隱私利益的周延性保護。在依據(jù)信息性質(zhì)不同、確立不同法律保護原則的基礎上,結(jié)合當前“整合型隱私”的特點,對個人敏感信息的“流動性”,突破單一化方式,進行多維度認定。其次,對敏感信息的法律保護,適用知情同意原則之上更高的保護標準。為提升實踐中知情同意原則在個人信息保護上的有效性,對信息收集者的法律義務作出分類規(guī)定,其中個人敏感信息只有明確同意才能處理,“適用于比告知同意更嚴格的標準,如此方能最大限度地保護信息主體的權(quán)益”。⑫最后,對于企業(yè)敏感信息處理行為設置底線,對數(shù)據(jù)畫像制定技術性法律規(guī)范,增強對敏感信息處理行為的風險評估和防范。彭誠信就指出,比如出于對疫情的考慮,需要掌控并公布一定的信息,那也必須依據(jù)法律的明確規(guī)定予以使用,且對隱私權(quán)的主體要做匿名化處理。⑬第二,明確網(wǎng)絡平臺信息內(nèi)容服務的法律責任。其一,明確網(wǎng)絡平臺限制非法信息傳播的責任。當前以知情同意以及避風港條款作為認定網(wǎng)絡平臺法律責任的主要依據(jù),立法應當結(jié)合技術發(fā)展的新形勢,對平臺在重點環(huán)節(jié)(包括服務類型、位置版塊等)呈現(xiàn)違法信息的追責行為等法律責任實行綜合認定,賦予其合理范圍內(nèi)的注意義務。同時,鑒于算法分發(fā)下信息傳播內(nèi)容的用戶場景適配性、體驗性增強,對隱私主體的侵害力的加劇,增強新聞倫理價值和人文關懷的法治規(guī)范,避免新聞平臺追逐經(jīng)濟利益誘發(fā)或者助推網(wǎng)絡暴力,“對發(fā)生嚴重侵權(quán)的特定網(wǎng)絡空間,網(wǎng)絡服務提供者負有合理期限內(nèi)的持續(xù)注意義務”。⑭其二,增強技術性法律規(guī)范的制定。應當適時調(diào)整審核標準,完善技術保障措施,例如建立假新聞源頭黑名單,對當事人隱私設置前置保護程序,健全與人工干預、用戶自主選擇協(xié)調(diào)配合的技術性舉措等,逐步將企業(yè)實踐中成熟、有效的技術性措施轉(zhuǎn)化為行業(yè)自律規(guī)定或技術性法律規(guī)范。其三,合理規(guī)定平臺法律責任。我國《網(wǎng)絡信息內(nèi)容生態(tài)治理規(guī)定》第十一條規(guī)定了鼓勵網(wǎng)絡信息內(nèi)容服務平臺堅持主流價值導向,優(yōu)化信息推薦機制。在算法推薦上,法律不僅禁止網(wǎng)絡平臺傳播違法信息,而且增設了要求其傳播正能量內(nèi)容的法律責任?;诖?,在機器審核的基礎上,應增強平臺人工審核比重的法律責任,健全人工干預機制,以實現(xiàn)對信息推送機制的優(yōu)化。第三,明確網(wǎng)絡平臺算法治理的法律責任。為了避免算法黑箱產(chǎn)生歧視,實現(xiàn)算法透明,一方面算法規(guī)制對用戶權(quán)利、人格尊嚴的保護應當明確。建議對預測性算法做出嚴格的法律限制并借助立法明確算法自動決策使用者的法律責任,賦予用戶對算法決策提出合理性質(zhì)疑的權(quán)利,進而為用戶的隱私權(quán)益尋求法律保護。對此,歐盟GDPR對算法自動決策使用者做出了為決策做出解釋的法律要求。另一方面明確算法設計者、數(shù)據(jù)處理者等相關利益主體的法律義務,加強算法對數(shù)據(jù)利用層面的規(guī)制。美國2017年公布了算法治理七項原則:知情原則、訪問和救濟原則、可問責原則、解釋原則、數(shù)據(jù)來源處理原則、可審計原則、檢驗和測試原則。⑮美國計算機協(xié)會提出的算法透明和可責性原則值得我國在立法中借鑒和吸收,在此基礎上,建立算法審查、監(jiān)督、問責機制,完善算法監(jiān)管體系,尤其是對一些采用問題算法的網(wǎng)絡平臺,借助自律規(guī)范,必要時候采取必要的法律手段進行處罰。第四,法律對用戶權(quán)利的賦予和限制。一是完善刪除權(quán)。目前我國已經(jīng)針對未成年人這一特殊義務主體賦予了刪除權(quán),應當以特殊義務主體以及敏感信息保護領域為試點繼續(xù)完善刪除權(quán)的法律規(guī)定,構(gòu)建完善的刪除權(quán)權(quán)利體系,增強刪除權(quán)行使過程中的可操作性,借鑒域外先進的立法經(jīng)驗,進一步完善“通知+取下”在人格權(quán)領域的適用規(guī)則。對此,學者李洋建議,“我國人格權(quán)立法上應當引入域外立法經(jīng)驗”,“一旦網(wǎng)絡服務商了解到第三方的某一項侵權(quán)內(nèi)容,便應在以后針對同樣侵權(quán)內(nèi)容負有主動審查義務”,⑯在此基礎上,立法在受害人的救濟成本以及企業(yè)的經(jīng)濟成本之間尋求平衡。同時,平衡和其他用戶知情權(quán)、表達權(quán)之間的關系,例如通過制度設計,防止官員以主張刪除權(quán)保護個人隱私為由從事刪帖行為,限制公眾監(jiān)督權(quán)等的意圖。二是規(guī)范對網(wǎng)民新型表達方式的法律限制,防止表達權(quán)對隱私權(quán)的限制?!毒W(wǎng)絡信息內(nèi)容生態(tài)治理規(guī)定》第二十一條、第二十三條對利用相關技術進行網(wǎng)絡暴力、深度偽造技術進行了法律限制。網(wǎng)民通過智能化的音視頻進行表達是公民表達權(quán)在網(wǎng)絡空間的體現(xiàn),應當予以尊重,但是無論何種表達形式都不能以侵蝕其他用戶的隱私權(quán)為代價,立法應當增強前瞻性,及時防范用戶新技術濫用帶來的法律風險,同時進一步明確法律的適用規(guī)則,以平衡用戶網(wǎng)絡表達權(quán)和隱私權(quán)保護之間的關系。

作者:夏夢穎 徐家林 單位:華東政法大學