智能新聞信息分發(fā)算法偏見與倫理規(guī)制

時(shí)間:2022-04-24 05:21:26

導(dǎo)語:智能新聞信息分發(fā)算法偏見與倫理規(guī)制一文來源于網(wǎng)友上傳,不代表本站觀點(diǎn),若需要原創(chuàng)文章可咨詢客服老師,歡迎參考。

智能新聞信息分發(fā)算法偏見與倫理規(guī)制

【摘要】算法技術(shù)介入智能新聞信息分發(fā)的過程中,提高了信息的傳播效率,也引發(fā)了算法偏見這一倫理問題。從個(gè)人主體權(quán)利的角度看,算法偏見使用戶的信息選擇權(quán)和知情權(quán)遭遇嚴(yán)峻挑戰(zhàn)。本文分析了算法偏見產(chǎn)生的技術(shù)邏輯,并從保障用戶信息選擇權(quán)和知情權(quán)出發(fā),提出了一系列基于信息權(quán)利的算法倫理原則,包括自主性原則、公正性原則、最優(yōu)化原則和透明性原則。

【關(guān)鍵詞】智能新聞;算法偏見;信息權(quán)利;倫理原則

基于算法的“今日頭條”的信息平臺和信息推薦模式,某種程度上滿足了受眾的興趣和需求,在精準(zhǔn)定位受眾、聚合受眾上取得了成功。但是,其背后基于算法的精準(zhǔn)推送,也讓人們開始質(zhì)疑算法的正義性。算法的信息過濾行為是不是客觀中立的?是否變相地剝奪了用戶的信息選擇權(quán)?這種算法是不是用戶真正所需要的?隨著算法技術(shù)在智能新聞中的不斷應(yīng)用,算法偏見問題越來越多地出現(xiàn)在國內(nèi)學(xué)者的研究中。有的學(xué)者將算法偏見進(jìn)行分類,認(rèn)為算法偏見主要包括互動偏見、潛意識偏見、選擇偏見和數(shù)據(jù)導(dǎo)向的偏見(許向東,2018)。有的學(xué)者從算法風(fēng)險(xiǎn)的角度,探討了算法應(yīng)用新聞生產(chǎn)中帶來的偏見風(fēng)險(xiǎn),認(rèn)為算法運(yùn)行系統(tǒng)中的偏見因素會導(dǎo)致偏見的結(jié)果輸出(張超,2018)。有的學(xué)者從算法倫理出發(fā),研究算法價(jià)值偏向所涉及的倫理問題,包括信息繭房、回音壁效應(yīng)、算法歧視、算法對傳播權(quán)利重新洗牌、算法傳播不易察覺價(jià)值偏向的信息等問題(董天策,2019)。還有的學(xué)者研究了分類推薦導(dǎo)致的“算法歧視”問題,認(rèn)為算法歧視使個(gè)體獨(dú)立選擇與思考的空間不斷縮小,個(gè)體在算法推薦的滲透下逐漸失去自我的決斷權(quán);這種信息偏向使受眾的視野漸漸窄化,逐漸演變成信息時(shí)代的“井底之蛙”(陳昌鳳,2017)。本文從信息權(quán)利的視角出發(fā),聚焦智能新聞信息分發(fā)中的算法偏見問題,深入考察算法偏見產(chǎn)生的技術(shù)原理,探討算法偏見給用戶信息選擇權(quán)和知情權(quán)帶來的挑戰(zhàn),并針對算法設(shè)計(jì)者這一責(zé)任主體,提出規(guī)制算法偏見的倫理原則。

一、算法推薦中的信息權(quán)困境

智能新聞是以算法技術(shù)為核心,自動生成新聞和推送新聞的一種新型新聞形態(tài)。算法技術(shù)在智能新聞信息分發(fā)中的應(yīng)用,一方面使智能新聞具有快捷、便利、個(gè)性化等優(yōu)勢,實(shí)現(xiàn)了“千人千面”的傳播效果,在新聞聚合下的傳媒生產(chǎn)中頗有市場;另一方面,也帶來了信息分發(fā)的偏向,出現(xiàn)了算法偏見這一令人擔(dān)憂的后果。目前,學(xué)界并未對“算法偏見”形成一個(gè)清晰而統(tǒng)一的定義。FranciscoSocal認(rèn)為算法偏見是在看似客觀中立的算法程序設(shè)計(jì)中,隱藏著設(shè)計(jì)者或開發(fā)人員的偏見,或者算法模型所采用的數(shù)據(jù)帶有偏見(Socal,2018)。楊保軍認(rèn)為算法偏見是在新聞選題和報(bào)道中所體現(xiàn)出的價(jià)值判斷的不客觀、不公正(楊保軍,2019)。因此,算法偏見是算法技術(shù)應(yīng)用于信息生產(chǎn)與分發(fā)過程中,由于算法設(shè)計(jì)、輸入數(shù)據(jù)、技術(shù)局限等因素造成的算法決策不客觀、不公正的現(xiàn)象。在當(dāng)前的智能新聞實(shí)踐中,算法偏見不僅帶來新聞的專業(yè)性、客觀性弱化,還對用戶的信息權(quán)利構(gòu)成威脅,導(dǎo)致作為社會環(huán)境“瞭望者”的媒體日益偏離公眾的期望。(一)算法推薦中的用戶信息選擇權(quán)。自從算法推薦技術(shù)在新聞分發(fā)中應(yīng)用以來,不少學(xué)者認(rèn)為算法讓公眾擺脫了專業(yè)媒體對信息的“操控”,擁有了自主、高效地選擇個(gè)性化信息的權(quán)利。這一觀點(diǎn)源于算法推薦技術(shù)被認(rèn)為是客觀中立的。由于基于算法推薦的信息分發(fā)過程不存在價(jià)值判斷,而是根據(jù)用戶的興趣愛好推送信息,因而有的學(xué)者認(rèn)為算法推薦技術(shù)把信息的選擇權(quán)歸還給了公眾。2017年12月,“今日頭條”因傳播色情低俗信息受到了查處,這與企業(yè)盲目迷信算法推薦和智能分發(fā)機(jī)制有關(guān)。然而,企業(yè)卻仍然聲稱算法技術(shù)不具有價(jià)值取向、新聞價(jià)值的選擇和判斷標(biāo)準(zhǔn)完全取決于用戶,將責(zé)任轉(zhuǎn)移給了用戶個(gè)人。用戶的信息選擇權(quán)究竟是用戶還是算法在主導(dǎo)?這一問題備受爭議。實(shí)際上,盡管基于用戶偏好推送信息是由算法自動完成的,但算法模型和個(gè)性化推薦系統(tǒng)是人為主觀創(chuàng)造的結(jié)果,算法運(yùn)行的代碼和程序都是經(jīng)過技術(shù)人員的設(shè)計(jì),在算法設(shè)計(jì)的各個(gè)環(huán)節(jié)都會不可避免地受到人的主觀影響。因此,算法推薦表面上似乎客觀中立地推送信息,滿足了用戶自主選擇信息的需求,事實(shí)上算法過濾信息的背后隱藏著深層次的價(jià)值偏見,用戶對信息的自主選擇權(quán)仍然在被算法所左右。信息選擇權(quán)是用戶自主選擇信息而不受干涉的權(quán)利。用戶的信息選擇權(quán)以信息獲取權(quán)為基礎(chǔ),意味著用戶在獲取信息的過程中,擁有選擇自主性(紀(jì)向新,2014)。2011年9月,美國民眾發(fā)起“占領(lǐng)華爾街”的游行示威運(yùn)動,但在Twitter的“趨勢發(fā)現(xiàn)”中卻無法看到該事件的熱搜。Facebook長期標(biāo)榜其新聞推送是由智能算法自動完成的,然而其平臺上關(guān)于新聞主播MegynKelly力挺希拉里而被??怂归_除的虛假新聞卻被推至話題榜首位,這間接證實(shí)了Facebook的黨派傾向(袁帆、嚴(yán)三九,2018)。在政治權(quán)力、商業(yè)資本以及算法設(shè)計(jì)者價(jià)值判斷等因素的影響下,算法推薦并不是完全客觀、中立地呈現(xiàn)信息,而是受到“主觀過濾器”的隱形干預(yù),這種干預(yù)導(dǎo)致的后果是用戶無法自由而全面地接收信息,因此用戶信息選擇的自主性無疑遭到干涉。算法程序根據(jù)用戶的個(gè)人數(shù)據(jù)與閱讀行為建立“數(shù)字檔案”,將某類信息只提供給某類用戶而非其他用戶,也阻礙了用戶對信息的自主選擇。例如,《華盛頓郵報(bào)》調(diào)查117名美國用戶發(fā)現(xiàn),F(xiàn)acebook會根據(jù)用戶的性別、設(shè)備使用習(xí)慣、居住地、年齡等各種差別進(jìn)行信息推送,將某些信息只推送給居住在農(nóng)村農(nóng)場而非城市里的用戶,或推送給大部分女性用戶而非男性用戶。紐約大學(xué)社會學(xué)教授MarshallBlonsky認(rèn)為,依據(jù)數(shù)字檔案進(jìn)行智能推送,是人為地給每個(gè)個(gè)體劃定了邊界(仇筠茜、陳昌鳳,2018)。盡管算法推薦滿足了用戶的個(gè)性化需求,但算法程序根據(jù)用戶的數(shù)字痕跡形成帶有主觀偏向的用戶畫像,圈定用戶的所屬群體,并決定分配何種類型的信息,這與用戶的信息選擇權(quán)的要義嚴(yán)重相悖。(二)“信息繭房”對公眾知情權(quán)的困擾。目前,多數(shù)的算法和信息過濾,都是根據(jù)用戶的搜索行為、點(diǎn)擊內(nèi)容、文字輸入來判斷用戶興趣和好惡的。對此,一些用戶抱怨,往往因誤點(diǎn)了一兩條新聞,或者僅僅出于好奇點(diǎn)了一下相關(guān)新聞,就導(dǎo)致之后不斷大量地被推送與之相關(guān)的其他新聞。只看想看的信息,聽起來是一件很愉快的事情,但長此以往,用戶很容易被隔離在信息的孤島上,對外界信息缺乏了解。過去,哈佛大學(xué)教授凱斯•桑斯坦用“信息繭房”來描述這種現(xiàn)象,認(rèn)為在信息傳播中,因公眾自身的信息需求并非全方位的,公眾只選擇使自己愉悅的信息領(lǐng)域,久而久之,會將自身桎梏于像蠶繭一般的“繭房”中(凱斯•桑斯坦,2008)。然而,今天的算法推薦是否會導(dǎo)致“信息繭房”或者信息窄化,在學(xué)術(shù)界仍然存在爭議。有學(xué)者認(rèn)為算法越來越多元,綜合運(yùn)用多種算法可以避免單一算法的刻板印象,算法的不斷優(yōu)化和其自身糾錯能力都利于打破“繭房”效應(yīng)(孫少晶等,2019)。還有學(xué)者認(rèn)為“信息繭房”的形成取決于算法推薦機(jī)制、社交關(guān)系和個(gè)人心理等一系列條件。在個(gè)人層面,多樣的閱讀動機(jī)使我們不僅僅局限于自己認(rèn)同的信息領(lǐng)域;在社會層面,豐富的社交關(guān)系不會讓人們陷入狹窄的視野中;技術(shù)層面,不同類型、不同原理的算法甚至可能促進(jìn)信息的多樣性(方可成,2019)。由于目前的大量研究缺乏經(jīng)驗(yàn)材料的支持,“信息繭房”的存在不具有客觀性和必然性。但在中國的社會背景下,“信息繭房”的提出具有積極意義,尤其是警惕個(gè)人視野局限、避免觀點(diǎn)極化等層面?!靶畔⒗O房”是兩種傳播思維相互碰撞的結(jié)果,傳統(tǒng)意義上大而全的傳播模式注重“面”上的拓展,而基于算法的個(gè)性化信息推薦則注重“點(diǎn)”上的深挖。因此,算法推薦在滿足用戶個(gè)性化需求的同時(shí),不可避免地會限制用戶信息的接觸面(喻國明,2018)。目前,運(yùn)用較多的是基于內(nèi)容的推薦算法,這種算法通過內(nèi)容和用戶特征的精準(zhǔn)匹配來推送信息。由于用戶具有選擇性接觸心理,傾向于對與自己偏好相符的信息進(jìn)行點(diǎn)贊、轉(zhuǎn)發(fā)、收藏或關(guān)注,因而基于內(nèi)容的推薦算法正是利用用戶的這種心理,根據(jù)用戶偏好持續(xù)推送相關(guān)信息,讓用戶在算法的誘導(dǎo)下不斷地相信推薦、順從內(nèi)心的意愿選擇信息。從這個(gè)角度而言,用戶大量獲取千篇一律的信息,容易身陷“信息繭房”。而一旦“信息繭房”產(chǎn)生,其帶來的最大后果是窄化公眾的信息接觸面,將公眾的視野禁錮在有限的信息領(lǐng)域,讓公眾失去了解外界的機(jī)會,這對公眾知情權(quán)帶來了困擾。公眾的知情權(quán)主要包括三個(gè)方面的內(nèi)容:知政權(quán)、社會信息知情權(quán)和個(gè)人信息知情權(quán)。知政權(quán)是指公眾了解、知曉國家活動和國家事務(wù)的基本權(quán)利;社會信息知情權(quán)是指公眾對其所感興趣的社會情況進(jìn)行了解的權(quán)利;個(gè)人信息知情權(quán)是指公民依法享有從他人、政府機(jī)關(guān)和其它組織等方面了解有關(guān)本人的信息記錄的權(quán)利(周毅,2009)。“信息繭房”會造成隱性的言論自由剝奪,即互聯(lián)網(wǎng)沒有主動給瀏覽者提供他們應(yīng)當(dāng)獲得的內(nèi)容,但人們意識不到需求這些內(nèi)容(胡婉婷,2016)。公眾有權(quán)利了解與自己切身利益密切相關(guān)的信息,但束縛在“信息繭房”中容易使公眾只關(guān)注自己感興趣的某一類信息,而對其他領(lǐng)域的社會情況缺乏了解,阻隔了公眾對社會信息的知情。這種對社會信息的不知情,不僅讓公眾難以根據(jù)社會環(huán)境的變化做出有效的行為決策,還將導(dǎo)致公眾在公共事務(wù)的討論和決定過程中缺席,難以實(shí)現(xiàn)有效的對話與溝通,造成公共性的喪失甚至無序化。對于那些媒介素養(yǎng)低下的公眾,他們更加容易陷入信息繭房而不自知,幾乎難以意識到其知情權(quán)受到侵害的問題。

二、算法偏見的生成邏輯

算法介入新聞生產(chǎn)中,由于缺乏人的參與,往往帶有科學(xué)、客觀的外在光環(huán)。這種客觀性主要體現(xiàn)在程序運(yùn)行或數(shù)據(jù)計(jì)算過程中的無偏差,但實(shí)際上算法在智能新聞信息分發(fā)的實(shí)踐過程中卻被揭露出隱藏著算法偏見。從技術(shù)原理來看,智能新聞在信息分發(fā)過程中的推薦結(jié)果,是由技術(shù)開發(fā)人員進(jìn)行算法設(shè)計(jì),并通過自動化程序驅(qū)動形成的。因此,算法偏見主要產(chǎn)生于算法程序的設(shè)計(jì)與運(yùn)行過程中。(一)基于“流量至上”的算法設(shè)計(jì)。算法設(shè)計(jì)是技術(shù)開發(fā)人員設(shè)計(jì)算法程序的過程,這一過程涵蓋了理解問題、選擇算法設(shè)計(jì)技術(shù)、設(shè)計(jì)并描述算法、手工運(yùn)行算法、分析算法的效率、實(shí)現(xiàn)算法等一系列步驟(王紅梅、胡明,2013)。盡管算法程序是算法運(yùn)行的主要執(zhí)行者,但算法程序的運(yùn)行效果往往取決于算法設(shè)計(jì)。選取何種目標(biāo)變量(用戶性別、點(diǎn)擊頻度、頁面停留時(shí)長等),以及如何設(shè)定分類標(biāo)簽與權(quán)重,都會影響信息分發(fā)的結(jié)果。而算法設(shè)計(jì)往往隱含技術(shù)開發(fā)人員的價(jià)值取向,在理解問題、選取相關(guān)指標(biāo)、設(shè)置權(quán)重、評估算法等算法設(shè)計(jì)過程中,技術(shù)開發(fā)人員的態(tài)度和價(jià)值觀念都極易嵌入其中,造成算法推薦客觀性的弱化(張超,2018)。2016年,F(xiàn)acebook“偏見門”事件揭露Facebook的趨勢話題平臺過濾保守派信息,卻保留自由派信息(方師師,2016)。2018年,YouTube平臺通過算法推薦激勵發(fā)展一種以兒童為目標(biāo)的亞文化,將充滿猥褻和暴力的視頻通過算法分發(fā)到專門針對兒童的應(yīng)用程序YouTubeKids上(郝鵬程,2018)。這種將某些內(nèi)容過濾、壓制,并優(yōu)先推薦其他內(nèi)容的信息分發(fā)方式,實(shí)際上是算法偏見的一種表現(xiàn)形式,它會導(dǎo)致用戶接收信息的失衡。在算法設(shè)計(jì)者主體意識的支配下,算法設(shè)計(jì)不僅受到設(shè)計(jì)主體自身價(jià)值判斷的影響,還受制于算法設(shè)計(jì)者所置身的環(huán)境。由于算法設(shè)計(jì)者不可能獨(dú)立于社會環(huán)境,其價(jià)值判斷和行為決策不可避免地受到其所處環(huán)境的影響,而來自環(huán)境的干擾會直接被添加進(jìn)算法設(shè)計(jì)之中。在競爭激烈、角逐流量的市場環(huán)境中,算法設(shè)計(jì)者很難不受到流量導(dǎo)向的影響,在算法設(shè)計(jì)中為低俗劣質(zhì)的新聞賦予更多權(quán)重,并使低俗內(nèi)容在用戶點(diǎn)擊后反復(fù)推薦,不斷賺取點(diǎn)擊量、流量。在“今日頭條”推送色情信息被查處的事件中,企業(yè)認(rèn)為算法推薦完全是根據(jù)用戶的偏好來推送信息的,從而得出信息選擇的主動權(quán)在用戶手中。實(shí)際上,在媒體機(jī)構(gòu)商業(yè)利益的驅(qū)動下,技術(shù)人員很可能遵循“流量至上”的原則,在算法設(shè)計(jì)的后臺通過設(shè)置權(quán)重參數(shù),加大低俗新聞的推送概率,推送吸引用戶注意力的信息。而這些信息會誘導(dǎo)用戶不斷接觸大量類似信息,甚至對算法推送的內(nèi)容產(chǎn)生依賴,喪失理性選擇信息的能力。因此,算法推薦不可排除背后的人工干預(yù),也就不能簡單地說算法推薦技術(shù)是完全客觀中立的。對于點(diǎn)擊量高的信息,算法也往往將其作為大多數(shù)人愛看的信息優(yōu)先推薦。雖然這種信息分發(fā)方式以用戶的態(tài)度和行為為中心,極大地釋放了用戶的傳播權(quán),增強(qiáng)了用戶的主動性和積極性。然而,值得注意的是,這種以點(diǎn)擊量為價(jià)值評估標(biāo)準(zhǔn)的算法推薦,極易被人為操縱的信息熱度所蠱惑,因?yàn)辄c(diǎn)擊量很多時(shí)候并不能真實(shí)地反映用戶的態(tài)度和行為。YouTube往往根據(jù)信息的熱度起伏向用戶自動推送熱門視頻,而將冷門信息拒之門外,卻忽略了人為刷播放量的行為。因此,在YouTube平臺上,通過公關(guān)公司花錢在短時(shí)間內(nèi)維持人氣,就能靠這種虛假流量捧紅一條視頻??梢?,算法設(shè)計(jì)將流量和點(diǎn)擊量作為推薦價(jià)值評估標(biāo)準(zhǔn),意味著由算法推薦技術(shù)主導(dǎo)的信息分發(fā)也存在較強(qiáng)的傾向性,難以保持絕對的客觀、中立,算法技術(shù)的中立性只不過是一個(gè)并不存在的“神話”。(二)基于用戶畫像的個(gè)性化推薦。在今天的互聯(lián)網(wǎng)上,所有的平臺和網(wǎng)站都不會告訴用戶他們搜索到或被推送接收的信息是如何遴選出來的,用戶同樣不知道,算法在背后已經(jīng)對其進(jìn)行了全方位的立體畫像。在推薦系統(tǒng)中,用戶畫像是根據(jù)用戶的社會人口屬性、生活習(xí)慣、消費(fèi)行為等特征抽取出來的標(biāo)簽化用戶模型(塔娜、唐錚,2019)。從基于內(nèi)容的算法推薦機(jī)制來看,在運(yùn)用算法程序推送與用戶畫像相匹配的內(nèi)容時(shí),一般要經(jīng)過這一流程:首先,提取信息特征,并將文本結(jié)構(gòu)化和標(biāo)簽化。利用網(wǎng)絡(luò)爬蟲技術(shù)自動抓取信息,通過機(jī)器學(xué)習(xí)對海量數(shù)據(jù)標(biāo)記,將信息分類。提取文本中的關(guān)鍵詞、類型、n元組等特征,并對其進(jìn)行量化建模,將其結(jié)構(gòu)化后保存在數(shù)據(jù)庫中(陳昌鳳、師文,2018)。其次,構(gòu)建用戶興趣模型。分析用戶的基本特征(如年齡、職業(yè)、所處位置、使用的設(shè)備、接入網(wǎng)絡(luò)的環(huán)境等)和行為特征(如點(diǎn)贊、評論、關(guān)注、轉(zhuǎn)發(fā)、閱讀時(shí)長等),建構(gòu)用戶興趣圖譜,并根據(jù)用戶反饋進(jìn)行動態(tài)更新。再次,計(jì)算用戶興趣和信息特征二者的相似度。計(jì)算每個(gè)文本和用戶興趣模型之間的相似度,呈現(xiàn)信息與興趣的相關(guān)性指數(shù),相關(guān)性較高的信息將置于推薦列表中向用戶優(yōu)先推薦。最后,對推薦信息進(jìn)行過濾和消重,并輔以人工編輯,對機(jī)器忽略的具有新聞價(jià)值的信息進(jìn)行補(bǔ)充??傊?,基于內(nèi)容的個(gè)性化推薦是對用戶數(shù)據(jù)進(jìn)行搜集、存儲與分析,形成基于個(gè)人特征的用戶畫像,最后生成與當(dāng)前用戶興趣愛好最相近的推薦內(nèi)容。個(gè)性化推薦的技術(shù)局限也會帶來算法偏見,其表現(xiàn)形式是過于迎合用戶興趣、一味地推送與用戶畫像相匹配的信息。在個(gè)性化算法推薦系統(tǒng)的應(yīng)用中,新聞內(nèi)容與用戶畫像匹配的精準(zhǔn)度越高,用戶越容易被圈進(jìn)一個(gè)自己建構(gòu)的信息閉環(huán)。由于算法假設(shè)用戶當(dāng)前的信息需求和其長期的個(gè)人興趣相關(guān),因而一旦用戶點(diǎn)擊某類新聞,算法自動認(rèn)定用戶近期都對該類新聞感興趣,并給用戶推薦此類新聞,而將與用戶興趣、意見相背離的信息排除在用戶的視野之外。用戶接觸到大量相似內(nèi)容的同時(shí),其點(diǎn)擊量也持續(xù)增加,進(jìn)而帶來推薦系統(tǒng)的持續(xù)推薦,最終經(jīng)過不斷循環(huán)往復(fù)形成一個(gè)頑固的信息閉環(huán)。盡管一些用戶具有多元化的閱讀興趣,推薦系統(tǒng)中的海量內(nèi)容也足以囊括用戶感興趣的信息領(lǐng)域,但持續(xù)推送同質(zhì)化的信息無疑將減少內(nèi)容輸出的多樣性。算法偏見的存在,使得推送內(nèi)容過濾了與用戶偏好無關(guān)的信息,極易加大用戶陷入“信息繭房”的可能性,讓每個(gè)人隔離在信息孤島中,對其他信息一無所知,難以滿足用戶的知情權(quán)。

三、算法推薦的倫理設(shè)計(jì)

算法通常被視為一種單純的技術(shù),在技術(shù)中立論的語境下,算法偏見問題極易被掩蓋,從而成為一個(gè)“隱性問題”。智能新聞中存在的信息偏向不僅阻礙了用戶自由全面地獲取信息,還損害了新聞的客觀性和公信力。那么,如何規(guī)制算法偏見,逐漸成為智能新聞發(fā)展中面臨的新挑戰(zhàn)。算法往往處于倫理規(guī)制的視野之外,對算法進(jìn)行倫理約束也常常遭到“技術(shù)烏托邦”支持者的排斥。然而,算法偏見給用戶信息權(quán)利帶來了種種侵害,這意味著有必要將算法偏見的隱性問題顯性化,讓算法受到倫理的約束和規(guī)范,并將其納入倫理規(guī)制的范圍之內(nèi)。馬克思•韋伯在《以政治為業(yè)》中提出責(zé)任倫理,他認(rèn)為,責(zé)任倫理的遵循者不僅要具有意圖上的善良,還要顧及自己行為的可能后果,并對可能的后果負(fù)責(zé)(葉笑云,2013)。行動者既要衡量實(shí)現(xiàn)其本身直接目的可能直接造成的后果,也應(yīng)該考慮其行為對其他價(jià)值可能直接或間接造成的后果(帕森斯,2003:738)。在算法設(shè)計(jì)的過程中,責(zé)任倫理要求算法設(shè)計(jì)者具備責(zé)任意識,在設(shè)計(jì)算法程序、編寫代碼之前審慎地選擇方案,防范可預(yù)知的不良后果。同時(shí),算法設(shè)計(jì)者不僅要考慮技術(shù)帶來的功能性利益,還要著眼于算法與社會的關(guān)系,充分考慮和尊重用戶的個(gè)人利益環(huán)境,衡量對用戶造成的影響。責(zé)任倫理為規(guī)制算法偏見提供了一個(gè)理論基點(diǎn),不但適用于算法的倫理約束,而且對保護(hù)用戶信息權(quán)利、重塑人本主義具有重要意義?;诖?,筆者嘗試以保障用戶信息選擇權(quán)和知情權(quán)為出發(fā)點(diǎn),以算法設(shè)計(jì)者為責(zé)任主體,提出一種基于信息權(quán)利的算法倫理原則,以制約算法偏見,確定算法責(zé)任,保護(hù)用戶信息權(quán)利。(一)自主性原則。自主性原則是指個(gè)人能夠根據(jù)自我意愿自由支配其合法信息的權(quán)利,這種信息權(quán)利是一系列的權(quán)利束,而不是一次性的信息選擇權(quán)。自主性原則源自康德的自由理論,康德從人的理性和尊嚴(yán)角度來界定“自主”,認(rèn)為每個(gè)人都有絕對的價(jià)值和決定自己命運(yùn)的能力,自主意味著要將他人作為目的而不是手段去尊重(莊曉平、康德,2011)??梢姡灾餍栽瓌t最基本的倫理觀念是在尊重人的基礎(chǔ)上尊重人的自我決定權(quán)。2018年12月18日,歐盟委員會公布《可信賴的人工智能道德準(zhǔn)則草案》,其列舉的十條需求原則中包括“尊重人的自主性”這一原則,強(qiáng)調(diào)推薦系統(tǒng)、導(dǎo)航系統(tǒng)和個(gè)人助理等AI必須支持用戶的個(gè)人偏好,增強(qiáng)用戶自我決策能力,保護(hù)用戶價(jià)值觀的多樣性(張雅妮、徐曼,2018)。在智能新聞信息分發(fā)過程中,由于算法推薦技術(shù)本身存在局限性,再加上其背后隱藏著不少人為干預(yù),干涉了用戶對信息的自由選擇。這種干涉行為說明算法設(shè)計(jì)并未將用戶當(dāng)作理性的個(gè)體,忽視了用戶具有對自身行為進(jìn)行理性思考、理性選擇和對行為后果承擔(dān)責(zé)任的能力,缺乏對用戶的尊重,違背的正是自主性原則。因此,有必要通過自主性原則,尊重用戶的主體性,讓算法技術(shù)發(fā)揮人本精神,更好地為用戶提供信息服務(wù)。自主性原則要求算法設(shè)計(jì)者在理念上承認(rèn)用戶擁有信息選擇的權(quán)利,并在行動上尊重用戶的自我決定權(quán),不干涉用戶的信息選擇自由。但算法設(shè)計(jì)者不能只停留在不干涉用戶信息選擇的層面上,而應(yīng)當(dāng)設(shè)計(jì)算法促進(jìn)和維護(hù)用戶自主選擇的能力,盡可能地幫助用戶避免破壞其自主行為的因素。具體而言,算法設(shè)計(jì)者應(yīng)增加用戶選擇的功能,讓用戶能夠自行選擇是否、何時(shí)以及如何讓算法進(jìn)行自動化決策。如果用戶拒絕接受算法推薦的信息,可允許其通過點(diǎn)擊某個(gè)選項(xiàng)屏蔽算法自動推薦的信息;如果用戶對算法推送的內(nèi)容產(chǎn)生質(zhì)疑或不滿,可為其提供自行修改的機(jī)會。比如,用戶可以針對其個(gè)人的算法運(yùn)行程序,選擇性地調(diào)整相關(guān)的算法參數(shù),優(yōu)化算法推薦模型。自主性原則的實(shí)現(xiàn),既要靠算法設(shè)計(jì)者充分給予用戶自主選擇的機(jī)會,也依賴于用戶自身媒介素養(yǎng)的提高。用戶只有不斷提高信息辨別能力,增強(qiáng)算法素養(yǎng),主動參與信息選擇,才能更好地維護(hù)其自主選擇信息的權(quán)利。(二)公正性原則。在新聞領(lǐng)域,公正性原則既是新聞傳播的基本原則和要求,也是針對算法偏見和歧視問題所提出的倫理原則。算法設(shè)計(jì)應(yīng)當(dāng)遵循公正性原則,公平分配用戶獲得信息的利益和機(jī)會,保障用戶獲取、選擇信息的公平性,利用算法技術(shù)的優(yōu)勢為社會公平和正義做貢獻(xiàn)。羅爾斯在《正義論》中曾經(jīng)提出正義的兩大原則,一是自由平等原則,即每個(gè)人對與所有人所擁有的最廣泛平等的基本自由體系相容的類似自由體系都應(yīng)有一種平等的權(quán)利。二是差別原則,即社會和經(jīng)濟(jì)的不平等應(yīng)這樣安排,使它們:在與正義的儲存原則一致的情況下,適合于最少受惠者的最大利益;并且依系于在機(jī)會公平平等的條件下職務(wù)和地位向所有人開放(約翰•羅爾斯,1997)。根據(jù)正義的第一原則,算法設(shè)計(jì)應(yīng)當(dāng)保障用戶平等獲取信息的權(quán)利,無論用戶的身份特征如何,都不能受到帶有歧視性的區(qū)別對待。在傳播內(nèi)容上,不能因種族、民族、性別、財(cái)富、地位等產(chǎn)生歧視或偏見;在信息獲取機(jī)會上,不能因利益需求過濾、混淆受眾搜索內(nèi)容,更不能協(xié)助虛假內(nèi)容的傳播(袁帆、嚴(yán)三九,2018)。在技術(shù)條件允許的情況下,算法設(shè)計(jì)者可以在設(shè)計(jì)算法的過程中嵌入“機(jī)會平等”的概念,構(gòu)建算法運(yùn)行應(yīng)遵守的技術(shù)公平原則。目前,國外已經(jīng)有研究團(tuán)隊(duì)依據(jù)約翰•羅爾斯的公平技術(shù)定義及其“機(jī)會公平平等”的觀念,引入“歧視指數(shù)”的概念,提出了設(shè)計(jì)“公平”算法的構(gòu)想(許向東,2018)。根據(jù)正義的第二原則,在制定算法規(guī)則時(shí)要兼顧公正和效率,使社會中處境最不利的成員獲得最大的利益。由于算法推薦往往根據(jù)用戶的數(shù)字痕跡進(jìn)行決策,而用戶利用媒介資源的素養(yǎng)存在巨大差異,因此,算法決策的過程看似無差別,實(shí)際上卻維系著社會的不平等。這一原則要求算法設(shè)計(jì)者不僅要維護(hù)媒介素養(yǎng)較高的信息優(yōu)勢群體的信息權(quán)利,還要將著力點(diǎn)放在媒介素養(yǎng)不足的信息弱勢群體上,設(shè)計(jì)適用于弱勢群體的算法,為其提供更具針對性的信息服務(wù)。(三)最優(yōu)化原則。最優(yōu)化原則最早出現(xiàn)在醫(yī)療領(lǐng)域,指醫(yī)務(wù)人員應(yīng)選擇以最小的代價(jià)獲得最大效果的診療方案,是行善原則、最小傷害原則在臨床工作中的具體應(yīng)用,在醫(yī)學(xué)倫理學(xué)領(lǐng)域普遍應(yīng)用。最優(yōu)化原則在本質(zhì)上是一種技術(shù)性原則(江璇,2019),因而對于算法技術(shù)而言,最優(yōu)化原則同樣適用。由于算法技術(shù)追求的不是滿足人類基本的、最低層次的需求,而是發(fā)展性的、高層次的需求,因此當(dāng)算法技術(shù)在實(shí)際中運(yùn)用時(shí),算法的設(shè)計(jì)和使用具有較大的選擇空間。正是算法設(shè)計(jì)和使用這種可選擇性的特點(diǎn),突顯了最優(yōu)化原則的重要性。最優(yōu)化意味著在算法技術(shù)利用之前,應(yīng)對可能出現(xiàn)的風(fēng)險(xiǎn)進(jìn)行預(yù)防,選擇能將損失降到最低的算法設(shè)計(jì)方案。2019年4月10日,美國參議院參議員Cory和Ronwydan提出《算法問責(zé)法》,該法列出的高風(fēng)險(xiǎn)算法中就包括帶有歧視性后果的算法、基于個(gè)人的地理位置、個(gè)人偏好、行為軌跡而作出的影響個(gè)人權(quán)利的算法等(朱朱,2019)??梢?,算法技術(shù)的應(yīng)用存在不容忽視的風(fēng)險(xiǎn),算法設(shè)計(jì)既要滿足當(dāng)前的新聞生產(chǎn)與傳播需求,更要對未來的算法風(fēng)險(xiǎn)做出合理地預(yù)判,降低風(fēng)險(xiǎn)發(fā)生的可能性。具體而言,算法設(shè)計(jì)者應(yīng)遵循道德標(biāo)準(zhǔn)和設(shè)計(jì)規(guī)則,將社會、道德、環(huán)境等因素納入到算法設(shè)計(jì)環(huán)節(jié)中,預(yù)設(shè)算法可能引發(fā)的問題。例如,對于給公眾知情權(quán)造成困擾的“信息繭房”問題,盡管“信息繭房”是否存在仍然具有諸多不確定性,但算法設(shè)計(jì)可以通過技術(shù)手段不斷評估、調(diào)整和優(yōu)化算法,增強(qiáng)信息的多樣性,避免“信息繭房”的產(chǎn)生。例如,《華爾街日報(bào)》在2016年創(chuàng)設(shè)了“紅推送,藍(lán)推送”,同時(shí)向用戶推送臉書上同類內(nèi)容的自由傾向、保守傾向的信息。這樣一來,算法推薦的客觀性將有所增強(qiáng)。算法技術(shù)的應(yīng)用要最大程度地發(fā)揮技術(shù)的優(yōu)勢,避免產(chǎn)生不良后果,必須通過綜合評估與分析進(jìn)行最優(yōu)化的算法選擇。制定算法系統(tǒng)的風(fēng)險(xiǎn)評估標(biāo)準(zhǔn),建立一個(gè)算法評估體系,并對算法風(fēng)險(xiǎn)進(jìn)行日常的實(shí)時(shí)監(jiān)測(張超,2018)。一旦發(fā)現(xiàn)算法存在缺陷或潛在風(fēng)險(xiǎn),根據(jù)具體情況決定是否中止算法系統(tǒng)及其相關(guān)服務(wù)。歸根結(jié)底,只有增強(qiáng)風(fēng)險(xiǎn)意識,做好預(yù)防和監(jiān)督措施,才能在最大程度突顯算法技術(shù)的優(yōu)勢,降低算法風(fēng)險(xiǎn),實(shí)現(xiàn)算法技術(shù)運(yùn)用的最優(yōu)化。(四)透明性原則。透明性原則是向公眾公開新聞生產(chǎn)的信源、方法,使其能夠?qū)π侣勆a(chǎn)的過程進(jìn)行監(jiān)督、審查、批判甚至干預(yù)。2013年,凱利•邁克布萊德和湯姆•羅森斯蒂爾在《新聞記者的倫理:21世紀(jì)的準(zhǔn)則》一書中將原來的“獨(dú)立性”準(zhǔn)則替換成“透明性”,并提出透明性的價(jià)值在于培育公眾的智力獨(dú)立,因?yàn)檫@樣可以使報(bào)道者的主觀性認(rèn)知在報(bào)道中直接呈現(xiàn),而不是將報(bào)道者的偏見暗含于中立的報(bào)道中(牛靜,2019)。算法介入到新聞生產(chǎn)、信息分發(fā)領(lǐng)域,由于存在隱蔽性極強(qiáng)的“技術(shù)黑箱”,公眾往往難以理解新聞的生產(chǎn)過程,無法對基于算法生產(chǎn)和推送的新聞進(jìn)行獨(dú)立判斷,也就無法有效地監(jiān)督算法的使用,防范算法帶來的風(fēng)險(xiǎn)。因此,有必要通過透明性原則,提高公眾對算法運(yùn)作的監(jiān)督力度,避免算法技術(shù)的濫用。透明性原則的推行不能僅僅停留在理念上,應(yīng)該通過技術(shù)設(shè)計(jì)實(shí)施一定的算法披露,增強(qiáng)算法的可解釋性,提高用戶對算法的理解程度。算法披露的內(nèi)容應(yīng)當(dāng)包括算法要素、算法程序和算法背景。算法要素披露,要求媒體公布數(shù)據(jù)質(zhì)量、可信度、準(zhǔn)確性、誤差范圍、采樣范圍、缺失值等要素,主動披露涉及公共利益的算法的源代碼(張淑玲,2018)。算法程序披露,意味著算法設(shè)計(jì)可以增加決策說明的模塊,向用戶解釋算法運(yùn)算和決策過程,讓用戶了解算法的設(shè)計(jì)目標(biāo)、運(yùn)作機(jī)制、推薦特定內(nèi)容的原因以及算法決策中存在的誤差和缺陷。算法背景披露是向用戶提示算法在新聞生產(chǎn)中的參與程度。在算法推薦信息之前,對新聞是否由機(jī)器人記者撰寫、是否為算法技術(shù)推薦、是否存在人類記者干預(yù)等進(jìn)行提示,并說明算法技術(shù)在實(shí)際應(yīng)用中可能帶來的偏見和誤差;當(dāng)用戶與一個(gè)系統(tǒng)進(jìn)行交互時(shí),應(yīng)當(dāng)告知與其對話的是聊天機(jī)器人,而不是真人。這些信息的公開,能夠在一定程度上破除算法的“技術(shù)黑箱”,滿足用戶對算法運(yùn)作的知情權(quán),提高用戶對算法運(yùn)作的判斷力、辨別力和監(jiān)督效力。

四、結(jié)語

智能新聞是人工智能技術(shù)的具體應(yīng)用,而算法技術(shù)是智能新聞的核心。盡管我們還處于弱人工智能階段,算法技術(shù)仍在算法設(shè)計(jì)者理解的范圍內(nèi),卻已給人類帶來算法偏見問題,給用戶信息選擇權(quán)、知情權(quán)的實(shí)現(xiàn)帶來嚴(yán)峻挑戰(zhàn)。隨著弱人工智能階段越來越向強(qiáng)人工智能階段邁進(jìn),算法引發(fā)的倫理困境將越發(fā)凸顯出來,將算法技術(shù)納入倫理規(guī)制的范圍中將發(fā)揮越來越重要的作用。相比于法律的事后救濟(jì),構(gòu)建算法倫理原則更強(qiáng)調(diào)預(yù)防的重要性,要求設(shè)計(jì)者在算法設(shè)計(jì)階段遵循相關(guān)的倫理規(guī)則,在算法程序運(yùn)行之前就考慮算法可能帶來的倫理問題。這種預(yù)先主動承擔(dān)道德責(zé)任的方式,將最大程度地避免算法技術(shù)的濫用,有效平衡人與算法的關(guān)系以及基于算法的人與人之間的關(guān)系。

作者:林愛珺 劉運(yùn)紅 單位:暨南大學(xué)