摘 要 個人信息保護(hù)立法應(yīng)基于個人和信息處理者之間的資源及能力不平等狀況,針對自動化決策的平等盲區(qū),設(shè)置一系列體現(xiàn)實(shí)質(zhì)平等化的權(quán)利義務(wù)分配方案,即強(qiáng)化對個人信息主體的賦權(quán)并嚴(yán)格化信息處理者的義務(wù),最終在二者之間促成一種制度性均勢。《個人信息保護(hù)法》遵循了公平信息實(shí)踐的基本框架,構(gòu)建了以權(quán)益保護(hù)為核心的個人信息保護(hù)框架和算法糾偏機(jī)制,但仍存在若干不足之處。盡管制度設(shè)計和算法規(guī)制水平很重要,但平等原則在個人信息保護(hù)領(lǐng)域的生根落地和實(shí)現(xiàn)算法公正,從根本上取決于運(yùn)行法律制度和自動化決策的社會本身平等與否。
關(guān)鍵詞 個人信息立法 平等 自動化決策 公平信息實(shí)踐
陳林林; 嚴(yán)書元, 華東政法大學(xué)學(xué)報 發(fā)表時間:2021-09-20
一、引言
平等既是一條基礎(chǔ)性的法律原則,也是社會主義核心價值觀的重要內(nèi)容之一。現(xiàn)代社會的立法皆是在不同原則或價值目標(biāo)之間進(jìn)行平衡的產(chǎn)物,盡管《中華人民共和國個人信息保護(hù)法》(以下簡稱《個人信息保護(hù)法》)未將平等明示為立法原則或目標(biāo),但文本第 1 條將“保護(hù)個人信息權(quán)益”和“促進(jìn)個人信息合理利用”同時列為立法目標(biāo),體現(xiàn)了立法者在權(quán)益和效率之間尋求平衡,進(jìn)而在資源分配上實(shí)現(xiàn)平等對待公民個人和信息處理者的立法理念。但這只是初階的平等,旨在消除或降低人與人之間、不同法律主體之間在人格資源上的差異,更深層次的平等應(yīng)當(dāng)是促進(jìn)他們以特定方式行動或達(dá)到目標(biāo)的能力平等。〔1〕就個人信息的立法保護(hù)而言,促進(jìn)能力平等尤為重要,因?yàn)樵谟苫ヂ?lián)網(wǎng)、大數(shù)據(jù)和自動化決策建構(gòu)起的數(shù)字社會中,技術(shù)已然成為一種隱性權(quán)力。缺乏信息采集、保護(hù)和處理技術(shù)的普通公眾和各種信息處理者之間存在明顯的能力不平等乃至“數(shù)據(jù)鴻溝”。〔2〕公民個人的數(shù)據(jù)形象不僅被“老大哥”盡收眼底,還被眾多擁有數(shù)據(jù)處理技術(shù)的“小老弟”——通信公司、互聯(lián)網(wǎng)平臺、企業(yè)和醫(yī)院等——看在眼中、算在心里。〔3〕與此相應(yīng),個人信息收集、使用規(guī)則不透明以及個人信息被過度收集、使用等現(xiàn)象,成了個人信息保護(hù)立法進(jìn)程中社會公眾反映最強(qiáng)烈的問題。
個人信息收集、使用規(guī)則不透明以及個人信息被過度收集、使用等問題,和數(shù)字社會中大規(guī)模采用的自動化決策存在直接的相關(guān)關(guān)系。自動化決策一般包括三個階段:數(shù)據(jù)收集階段、使用機(jī)器學(xué)習(xí)算法建模階段和最終決策階段。以機(jī)器學(xué)習(xí)算法為基礎(chǔ)的自動化決策,需要收集、分析、擇取并應(yīng)用海量的個人信息,〔4〕這不僅與保護(hù)隱私權(quán)以及個人信息權(quán)益之間存在張力,還會對公民其他權(quán)利(尤其是程序性權(quán)利)和社會平等產(chǎn)生影響。機(jī)器學(xué)習(xí)能夠在海量數(shù)據(jù)中發(fā)掘出潛藏的相關(guān)性,對這些相關(guān)性的發(fā)掘利用,使得人們的社會認(rèn)知和行為方式不斷得到更新,并最終促成社會結(jié)構(gòu)的重組。已有研究表明,盡管機(jī)器學(xué)習(xí)和自動化決策提高了效率,但也帶來一定的副作用——歧視效應(yīng)或曰算法歧視。〔5〕有關(guān)個人信息的大數(shù)據(jù)應(yīng)用不僅會通過各種方式侵?jǐn)_人們的私生活,還會加劇現(xiàn)有的社會不平等并創(chuàng)造新的不平等。〔6〕由于機(jī)器學(xué)習(xí)和自動化決策的專業(yè)性、保密性和黑箱化特征,法律很難對涉嫌歧視的算法本身進(jìn)行事后審查或事先預(yù)防,因此在個人信息保護(hù)立法進(jìn)程中,有必要在能力不平等的普通公民和信息處理者之間進(jìn)行一些糾偏性的權(quán)利義務(wù)分配,以達(dá)至實(shí)質(zhì)性的地位平等并真正實(shí)現(xiàn)對個人信息的法律保護(hù)。
二、自動化決策的平等盲區(qū)
依據(jù)《個人信息保護(hù)法》第 73 條的界定,自動化決策是指通過計算機(jī)程序自動分析、評估個人的行為習(xí)慣、興趣愛好或者經(jīng)濟(jì)、健康、信用狀況等,并進(jìn)行決策的活動。自動化決策的輸入端是個人信息數(shù)據(jù),輸出端是對自然人的行為習(xí)慣、興趣愛好或者經(jīng)濟(jì)、健康、信用狀況等作出的分析和預(yù)測。它所應(yīng)用的工具是計算機(jī)程序即算法,核心特征是自動化。與自動化決策緊密相關(guān)的一個概念是“畫像”。畫像是快速分類處理信息的一種活動,類似于“貼標(biāo)簽”,即通過外表、興趣愛好、職業(yè)、地區(qū)等個人信息,將其劃分到某個類別當(dāng)中并賦予相應(yīng)的個人特征,最后據(jù)此來決定后續(xù)的處理或?qū)Υ绞健!?〕歐盟《通用數(shù)據(jù)保護(hù)條例》(以下簡稱“GDPR”)第 4 條對其的概括是:為評估與自然人相關(guān)的某些個人情況,特別是為了分析或預(yù)測該自然人的工作表現(xiàn)、經(jīng)濟(jì)狀況、健康狀況、個人偏好、興趣、可信度、行為、位置或行蹤,而對個人數(shù)據(jù)進(jìn)行的任何形式的自動化處理和利用。顯然,“畫像”展示的是一個“被給定的量化身份”,〔8〕它和真實(shí)世界的公民個人狀況必定存在或多或少的偏差,并導(dǎo)致后續(xù)的機(jī)器學(xué)習(xí)和自動化決策出現(xiàn)偏差和歧視。
以機(jī)器學(xué)習(xí)算法為基礎(chǔ)的自動化決策天然地存在平等盲區(qū)。首先,它對個人信息的處理方式不可能做到完全平等。其一,輸入算法的數(shù)據(jù)在質(zhì)和量兩個方面決定了機(jī)器學(xué)習(xí)自動化決策的可靠性。在量的方面,被用來訓(xùn)練機(jī)器學(xué)習(xí)的數(shù)據(jù)越少,所得結(jié)果與實(shí)際情況的偏離度越大。在質(zhì)的方面,數(shù)據(jù)來源以及數(shù)據(jù)所附標(biāo)簽本身存在偏差。當(dāng)被輸入算法的數(shù)據(jù)本身存在偏見和歧視時,很難預(yù)期能獲得公平公正的決策。以就業(yè)領(lǐng)域的性別平等為例,若以往招聘案例中受雇傭女性比男性更少,那么關(guān)于女性員工的數(shù)據(jù)就不如男性員工的數(shù)據(jù)可靠。〔9〕其二,算法設(shè)計者在編程時,不可避免地會嵌入特定的價值目標(biāo)。算法為解決問題而生,因而提出問題或設(shè)定目標(biāo)是一個更具決定性的步驟。當(dāng)算法設(shè)計者擬定的特定問題或算法運(yùn)行標(biāo)準(zhǔn)存在平等性偏差時,自動化決策必然會造成不平等問題。極端例子就是在缺乏正當(dāng)理由的前提下,設(shè)計者使用機(jī)器學(xué)習(xí)算法開發(fā)出一個按種族、性別或宗教過濾用戶的差別對待模型。當(dāng)然,這種事例在商業(yè)和公共領(lǐng)域并不常見,更常見的是另一種容易被忽視的算法,即將各種更微妙的、看似無關(guān)的因素與種族、性別、宗教、政治觀點(diǎn)等相勾連,替代后者這些敏感因素成為新的過濾條件,從而將歧視性篩選機(jī)制隱蔽其中。例如,通過分析郵政編碼來評估少數(shù)族裔,或者以“訂閱特定雜志”來替代性別。〔10〕其三,機(jī)器學(xué)習(xí)所運(yùn)行的算法邏輯不同于演繹推理邏輯,因而容易忽略因果性并夸大相關(guān)性。通過分析大量數(shù)據(jù),機(jī)器學(xué)習(xí)能夠發(fā)現(xiàn)不同數(shù)據(jù)之間的某種相關(guān)性,但無法解釋為什么會產(chǎn)生這種相關(guān)性。即便開發(fā)者在開發(fā)過程中沒有代入偏見,機(jī)器學(xué)習(xí)自身也會產(chǎn)生“偏見”。在招聘的應(yīng)用場景中,機(jī)器學(xué)習(xí)基于既有數(shù)據(jù)會得出一名女性求職者不大適合擔(dān)任首席執(zhí)行官的結(jié)論,因?yàn)樵诂F(xiàn)實(shí)職場中女性比男性更少有機(jī)會在大企業(yè)中升到主管級別,但它并不考慮也無法解釋為什么會出現(xiàn)這種現(xiàn)象。因果性分析超出了機(jī)器學(xué)習(xí)的能力范圍,而這種忽略因果關(guān)系的算法黑箱過程,令看似客觀的機(jī)器學(xué)習(xí)結(jié)果隱藏了偏見和不平等,同時還阻斷了追責(zé)路徑。
其次,以機(jī)器學(xué)習(xí)算法為基礎(chǔ)的自動化決策會產(chǎn)生“馬太效應(yīng)”或“滾雪球效應(yīng)”。差別對待是機(jī)器學(xué)習(xí)算法的內(nèi)在邏輯,其發(fā)掘出的模式和相關(guān)性被用于區(qū)分、排序和過濾用戶群體。無論是在算法建模階段還是自動決策階段,這種差別對待都是貫穿始終的。〔11〕機(jī)器學(xué)習(xí)處理個人信息的第一道工序就是分類。當(dāng)一家互聯(lián)網(wǎng)企業(yè)招聘“優(yōu)秀”員工時,機(jī)器首先在現(xiàn)有數(shù)據(jù)基礎(chǔ)上學(xué)習(xí)哪些員工特征與“優(yōu)秀”表現(xiàn)相關(guān)。一旦機(jī)器學(xué)習(xí)捕捉到“男性”“身體健康”“35 歲以下”“研究生以上學(xué)歷”等特征或編碼,那么在自動化決策階段,這些特征所構(gòu)成的差別對待將被放大:具備這些特征的應(yīng)聘者得到了較多工作機(jī)會或較好待遇,不具備這些特征的應(yīng)聘者即便在其他方面表現(xiàn)優(yōu)異,仍將被淘汰出局。換言之,機(jī)器學(xué)習(xí)算法很容易受到程序員、已有前置決策、用戶及 / 或社會偏見的影響,從而生成歧視性結(jié)果。〔12〕隨著機(jī)器學(xué)習(xí)和自動化決策滲入社會生活的方方面面,“強(qiáng)者恒強(qiáng),弱者愈弱”的局面將越發(fā)難以避免,因?yàn)闄C(jī)器學(xué)習(xí)會反映并強(qiáng)化社會中持續(xù)存在的不平等。
最后,機(jī)器學(xué)習(xí)算法處理個人信息時經(jīng)常出現(xiàn)“信息溢出效應(yīng)”。算法通過對群體偏好的分析,推測屬于該群體的個體之特征,這一過程實(shí)際就是對個體進(jìn)行脫離語境的畫像或貼標(biāo)簽,會伴生信息的過度解讀現(xiàn)象或“溢出效應(yīng)”。例如,某網(wǎng)購平臺對一名搖滾唱片購買者貼上了搖滾音樂愛好者的標(biāo)簽,但實(shí)際上該消費(fèi)者購買這張唱片只是當(dāng)作禮物送人。類似地,一旦你在亞馬遜網(wǎng)站為他人代購了一本關(guān)于強(qiáng)迫癥的書,那么此后無論你何時登錄亞馬遜購物網(wǎng)站,它就可能向你推送有關(guān)強(qiáng)迫癥的書籍,并將相關(guān)信息置于網(wǎng)頁的顯著位置,或者向你的郵箱發(fā)送關(guān)于強(qiáng)迫癥書籍的廣告。顯然,亞馬遜網(wǎng)站認(rèn)為你患有強(qiáng)迫癥,追蹤你郵件信息的算法也會得出類似結(jié)論。〔13〕這種過度解讀或錯誤標(biāo)簽也許不會即刻對現(xiàn)實(shí)生活產(chǎn)生影響,但其長期效應(yīng)可能會很明顯。以信用評級或貸款評價體系為例,假設(shè)古典音樂愛好者在貸款人數(shù)據(jù)庫中表現(xiàn)出更好的還貸能力,該群體就會因此被賦予更高信用評級或貸款優(yōu)先性。在自動化決策法律規(guī)制闕如的情況下,那名古典音樂愛好者可能因?yàn)闃?biāo)簽失真而錯過貸款機(jī)會,進(jìn)而影響未來的生活。他對哪些信息被用于評價信用和相關(guān)信息的獲取渠道等問題,很可能一無所知。這就好比匿名人員用未知數(shù)據(jù)對他進(jìn)行了指控,而被指控人卻無法做出回應(yīng)。〔14〕
顯然,自動化決策過程中的畫像會賦予特定群體刻板印象甚至是污名,而刻板印象和污名化恰恰是社會不平等的開始,因?yàn)樗鼈兎催^來會對特定群體中的個體產(chǎn)生負(fù)面影響。自動化決策帶來的顯性或隱性差別對待、直接或間接歧視,被冠名為一種新的不平等或歧視形式——“數(shù)字歧視”(Digital Discrimination)。〔15〕它根據(jù)一些難以解釋的,甚至是偶然的相關(guān)性,包括歷史性、代表性偏差、加總偏差、習(xí)得性偏差、評估偏差、運(yùn)用偏差等原因,將特定群體中的所有個體貼上同一標(biāo)簽,這實(shí)際是對個人平等權(quán)的減損。承認(rèn)并維護(hù)個人之間的平等地位,是對個人尊嚴(yán)和人道主義的捍衛(wèi),因此它既是一條法律原則,也是道德實(shí)踐領(lǐng)域的一種規(guī)范性要求。對人的分門別類,諸如“人上人”和“人下人”的劃分,在道德上被認(rèn)為是殘忍的。因?yàn)槟橙说娜觞c(diǎn)而消除其追求個人全面發(fā)展的可能性,還被認(rèn)為是錯誤且有害的。〔16〕
在應(yīng)用自動化決策的數(shù)字社會中,大部分民眾將被算法視為某個社會群體的成員,而不再是某個公民個人。較之社會中的主流或優(yōu)勢群體,有色人種、移民、不受歡迎的宗教團(tuán)體、窮人和其他被壓榨的邊緣化人群,會受到更多的數(shù)據(jù)監(jiān)控及信息追蹤。倘若被算法歸入“人下人”或“邊緣化群體”,公民在獲取公共福利、穿行高安防街區(qū)、登入醫(yī)保系統(tǒng)、進(jìn)行保險理賠或跨越國境時,就不得不接受更高級別的個人信息采集。一旦他們成為算法設(shè)置的懷疑對象并接受額外審查時,數(shù)據(jù)還會進(jìn)一步強(qiáng)化他們的邊緣性。以美國中部地區(qū)福利資格自動化處理系統(tǒng)、洛杉磯無家可歸者住房協(xié)調(diào)系統(tǒng)和阿勒格尼縣虐童家庭篩選系統(tǒng)為例,研究者認(rèn)為隨著數(shù)據(jù)跟蹤和自動化決策系統(tǒng)在治安管理、政治預(yù)測、市場營銷、信用報告、刑事審判、企業(yè)管理、金融及福利項(xiàng)目管理中的常態(tài)化,疊加這些系統(tǒng)的全覆蓋、精細(xì)化和復(fù)雜化趨勢,盡管表面上提高了效率,實(shí)際卻營造了一所“鎖定窮人、管制窮人甚至懲罰窮人”的“數(shù)字濟(jì)貧院”,以及一種“自動不平等”(automating inequality)的決策背景和信息反饋循環(huán)。〔17〕
三、能力平等、公平信息實(shí)踐與個人信息保護(hù)
在既有的政治—法律理論及實(shí)踐中,平等包含了兩種形態(tài)和三個維度:形式平等和實(shí)質(zhì)平等,以及福利、資源和能力的平等。〔18〕形式平等要求對相同的個體給予相同的待遇,即無差別的一致對待。形式平等會導(dǎo)致“間接歧視”,例如工作薪水高,但要求全職工作,實(shí)際上就間接歧視了受困于家庭責(zé)任的女性。鑒于形式平等無法實(shí)現(xiàn)“實(shí)踐中的全面平等”或“合理的差別對待”,采取有利于特定弱勢群體之特別措施的實(shí)質(zhì)平等,逐漸為現(xiàn)代政治法律制度所采納、推廣。美國《民權(quán)法》中的“平權(quán)行動” (affirmative action)就是旨在提升女性和少數(shù)族群的就業(yè)機(jī)會和工作優(yōu)待的行動,歐洲法中的“積極行動”(positive action)政策,更是包括了五種消除間接歧視、提高邊緣群體就業(yè)機(jī)會的行動。〔19〕通過資源(此處是就業(yè)機(jī)會和工作條件)的差別化分配實(shí)現(xiàn)實(shí)質(zhì)平等,既出于“全面平等”、提高社會整體福利水平的后果考量,也立足于事實(shí)層面的依據(jù)——每個人利用資源的能力水平是不平等的。
資源不僅包括收入和財富,而且包括自由、權(quán)利和機(jī)會。如果人們利用資源的能力存在差異,那么即便人人都擁有平等的資源,每個人實(shí)際的生活質(zhì)量仍將是不平等的。例如,與健康者相比,一位殘障者即便擁有同樣多的資源,其生活仍將處于較低的水平,因?yàn)樗粌H要把相關(guān)一部分資源用于治療疾病,也缺乏用相關(guān)資源獲取更多資源的便利和技能。阿瑪?shù)賮?? 森進(jìn)一步指出,自然環(huán)境和社會制度的差別,也會賦予人們不同的能力空間或行動力,并導(dǎo)致類似的不平等結(jié)果。〔20〕因此,資源平等只是實(shí)現(xiàn)平等的起點(diǎn)或必要條件,實(shí)現(xiàn)平等的關(guān)鍵在于保障人們“基本能力平等”——具備滿足基本需要、去做重要事情的能力,包括滿足吃穿住行需要的能力、自由行動的能力、參與社會政治生活的能力等。〔21〕在法治國語境中,國家負(fù)有保障個體維護(hù)其基本自由和法律權(quán)利的能力,否則無法實(shí)現(xiàn)法治并保障人權(quán)。因此,以能力平等為要旨的平等原則,既是法律平等權(quán)的題中之義,也是國家扶貧政策、法律援助制度和其他一系列特殊群體優(yōu)待措施的理論基礎(chǔ)和制度理念。
從能力平等的視角觀之,數(shù)字時代個人信息保護(hù)需要克服兩重障礙:一是公民個人和信息處理者之間的資源不平等,主要是信息或數(shù)據(jù)獲取和支配的不對等性;二是公民個人和信息處理者之間的能力不平等。在法律理論中,不同主體之間的法律平等權(quán)由兩個層次構(gòu)成:第一個層次是平等對待的權(quán)利,指向機(jī)會、資源或義務(wù)的平等分配;第二個層次是作為一個平等的主體受到同等尊重和關(guān)照的權(quán)利。〔22〕在個人信息保護(hù)領(lǐng)域,倘若立法者無視公民個人和信息處理者之間的能力不平等,就會在上述兩個層面放任實(shí)質(zhì)不平等的狀況,也無從解決個人信息收集、使用規(guī)則不透明以及個人信息被過度收集、使用等問題。
信息資源分配和信息處理能力的平等化可以概括地稱為信息平等,它是信息時代社會公正的一項(xiàng)基礎(chǔ)內(nèi)涵。從形式上看,信息平等是指信息主體——公民個人之間、公民和信息處理者之間以及信息處理者之間——在信息利益關(guān)系上的平等或均勢狀態(tài)。〔23〕公民個人與信息處理者之間的利益或權(quán)利義務(wù)關(guān)系,因?yàn)楦髯阅芰Σ黄降榷厝粫?dǎo)致一種失衡狀態(tài),所以歷來是各國個人信息保護(hù)立法的調(diào)整對象。例如歐盟 GDPR 申明“本條例保護(hù)自然人的基本權(quán)利和自由,尤其是自然人的個人數(shù)據(jù)保護(hù)權(quán)”,并將條例的適用范圍限定在“部分或全部以自動化方式對個人數(shù)據(jù)的處理”;德國《聯(lián)邦數(shù)據(jù)保護(hù)法》也規(guī)定“本法的目的是保護(hù)個人”,適用范圍是聯(lián)邦公共機(jī)構(gòu)、各州公共機(jī)構(gòu)和私人機(jī)構(gòu) “對個人資料的收集、處理和使用”。在信息資源和能力領(lǐng)域的實(shí)質(zhì)平等化舉措,可歸入數(shù)字時代的一場社會公正運(yùn)動——公平信息實(shí)踐(fair information practices)。
“公平信息實(shí)踐”濫觴于美國法上的隱私權(quán)保護(hù),目標(biāo)是為公民隱私保護(hù)提供一系列公認(rèn)的、跨國界的做法。公平信息實(shí)踐最早的版本,是美國衛(wèi)生教育福利部遞交的一份立法建議報告——《公平信息處理?xiàng)l例》。這份報告被譽(yù)為信息時代的“權(quán)利法案”,它為個人隱私和個人信息保護(hù)設(shè)立了五條準(zhǔn)則:(1)任何收集個人數(shù)據(jù)的自動化系統(tǒng),都不得秘密存在;(2)對個人數(shù)據(jù)的收集以及使用情況,必須能為相關(guān)個人所知曉;(3)個人有渠道阻止用于特定用途的個人信息,未經(jīng)自己同意被移作他用;(4)個人有渠道修正或增訂與自身信息相關(guān)的數(shù)據(jù)記錄;(5)任何機(jī)構(gòu)在生成、保存、使用、傳播可識別的個人數(shù)據(jù)時,必須確保數(shù)據(jù)的可靠性,以及確保數(shù)據(jù)用于原定的目的,同時對數(shù)據(jù)的誤用或?yàn)E用負(fù)有合理的注意義務(wù)。〔24〕直至2008年,美國國土安全部隱私辦公室又提出了八條“公平信息實(shí)踐原則”:(1)透明性原則:對個人身份信息的收集、使用、傳播和維護(hù)過程,國安部皆向相關(guān)個人公開或知會;(2)個人參與原則:國安部應(yīng)當(dāng)盡可能讓個人參與對其身份信息的使用過程,并征得個人同意對其身份信息的收集、使用、傳播和維護(hù);(3)目的明確性原則:具體且明確地說明國安部收集個人信息的權(quán)限范圍,以及為了哪個或哪幾個目標(biāo)使用個人身份信息;(4)數(shù)據(jù)最小化原則:國安部只能收集為了實(shí)現(xiàn)目的所必須的、直接相關(guān)的個人身份信息,一旦目標(biāo)實(shí)現(xiàn)就不得繼續(xù)保存?zhèn)€人身份信息;(5)使用限定原則:個人身份信息只能用于公開告知的目的,和外部主體共享信息的理由必須符合個人身份信息收集時的目的;(6)數(shù)據(jù)質(zhì)量和整全性原則:在盡可能的范圍內(nèi),確保個人身份信息的準(zhǔn)確性、相關(guān)性、及時性和完整性;(7)安全性原則:國安部應(yīng)當(dāng)采取恰當(dāng)?shù)陌踩U洗胧Wo(hù)個人身份信息免遭以下風(fēng)險——滅失,未經(jīng)授權(quán)的訪問或適用,遭破壞,被篡改,意外或不當(dāng)泄露;(8)責(zé)任與審計原則:國安部就以下事項(xiàng)負(fù)有責(zé)任——遵守相關(guān)原則,培訓(xùn)使用個人身份信息的內(nèi)部工作人員和外包工作人員,審計個人身份信息的實(shí)際使用情況是否遵守了相關(guān)原則和各項(xiàng)隱私保護(hù)要求。〔25〕
概括而言,公平信息實(shí)踐的要義有二:一是通過法律賦權(quán)的方式,授予能力和信息弱勢地位的個人以制約、抗衡信息處理者及算法權(quán)力的權(quán)利或手段;二是對借由“技術(shù)賦權(quán)”獲得信息優(yōu)勢地位的個人信息處理者,設(shè)置一些針對性的、嚴(yán)格化的注意義務(wù)和法律責(zé)任。以 GDPR 為例,其賦予數(shù)據(jù)主體的法律權(quán)利包括知情權(quán)、數(shù)據(jù)訪問權(quán)、糾正權(quán)、刪除權(quán)、限制處理權(quán)、移植權(quán)、拒絕權(quán)和自主決定權(quán)等。在普通公民與個人信息處理者之間這場不平等的博弈中,個人最重要的籌碼莫過于指間的同意或拒絕按鍵(決定權(quán)),這是一種形成或否決信息處理法律關(guān)系的控制力。〔26〕但行使決定權(quán)的前提是知情權(quán),即個人應(yīng)當(dāng)明確獲知自己的信息正在被處理,特別是那些對自身權(quán)益會造成重大影響的自動化決策,除非是在犯罪偵查等涉及公共安全而需要保密的領(lǐng)域。
如果說知情權(quán)和決定權(quán)的行使能夠限制或拒絕個人信息處理者對其個人信息的處理,屬于一種被動防御,那么算法解釋權(quán)、數(shù)據(jù)修正權(quán)和自動化決策拒絕權(quán)皆可算作積極防御。以算法解釋權(quán)為例,盡管學(xué)界普遍認(rèn)為其面臨技術(shù)層面不可行、數(shù)據(jù)主體知識鴻溝、侵害知識產(chǎn)權(quán)或商業(yè)秘密等問題,但仍得到了立法者的認(rèn)可。GDPR 序言部分第 71 條指出,數(shù)據(jù)控制者應(yīng)明確告知數(shù)據(jù)主體具有獲得人為干預(yù)、表達(dá)觀點(diǎn)、對決定要求作出解釋、提出質(zhì)疑的權(quán)利,這被認(rèn)為是創(chuàng)設(shè)了個人的算法解釋權(quán)。〔27〕算法解釋權(quán)有助于個人免于直接被含有偏見的機(jī)器學(xué)習(xí)算法宰制。為防止數(shù)據(jù)錯誤導(dǎo)致的算法歧視溢出,損害個體平等權(quán)利,立法者必須在知情同意的基礎(chǔ)上再賦予個人對信息的修正權(quán)。而要行使修正權(quán),個人還必須具有查閱、復(fù)制等數(shù)據(jù)訪問權(quán)。訪問權(quán)和修正權(quán)旨在增強(qiáng)個人對自身信息的控制力,在犧牲一定經(jīng)濟(jì)效率的條件下,提高自動化決策的準(zhǔn)確性,避免個人被錯誤標(biāo)簽化。此外,由于算法黑箱的存在,算法不公的威脅始終難解,特別是機(jī)器學(xué)習(xí)算法可能從毫不起眼的個人信息中挖掘出鮮為人知的相關(guān)性,而這種相關(guān)性有時關(guān)乎個人隱私與人格尊嚴(yán)。為了從源頭上杜絕平臺、企業(yè)利用機(jī)器學(xué)習(xí)算法不當(dāng)或過度開發(fā)個人信息,立法者還應(yīng)當(dāng)賦予個人自動化決策拒絕權(quán)和數(shù)據(jù)刪除權(quán)(被遺忘權(quán))。以上個人權(quán)利的實(shí)現(xiàn)有賴于信息處理者的積極配合,因此每一項(xiàng)個人信息權(quán)利都對應(yīng)個人信息處理者的相應(yīng)義務(wù),如決定權(quán)對應(yīng)征得個人同意的義務(wù)。但個人信息處理者與普通公民在信息技術(shù)領(lǐng)域內(nèi)地位顯著不平等,且信息處理者往往缺乏動力保護(hù)數(shù)據(jù)安全、維護(hù)個人隱私,因此還需要通過立法對技術(shù)優(yōu)勢方課以專門的數(shù)據(jù)安保義務(wù),通過監(jiān)管手段對違法行為進(jìn)行問責(zé),加重信息處理者違法成本,形成一整套約束個人信息處理者的“義務(wù)—監(jiān)管—問責(zé)”體系,使其不敢跨越紅線。
自動化決策算法涉及對公民資源、機(jī)會、風(fēng)險、權(quán)利、義務(wù)等的分配,內(nèi)含了一種“權(quán)力—支配”關(guān)系,具有準(zhǔn)公權(quán)力的性質(zhì)或者公權(quán)力的一些屬性。〔28〕為避免權(quán)力濫用,適用于公權(quán)力的約束在數(shù)字社會時代同樣可以施加給算法權(quán)力主體。例如,公開(透明性)原則是程序正義對權(quán)力運(yùn)行的要求。 GDPR 第 13 條第 2 款規(guī)定:“控制者在獲取個人數(shù)據(jù)時出于證實(shí)處理過程的公正和透明的需要,在必要的情況下應(yīng)當(dāng)向數(shù)據(jù)主體提供如下信息……(f)控制者對個人信息的自動決策機(jī)制,包括第 22 條第 1 款以及第 4 款所述的數(shù)據(jù)畫像,在該種情況下控制者至少應(yīng)向數(shù)據(jù)主體提供數(shù)據(jù)畫像過程中運(yùn)用的邏輯,以及該種數(shù)據(jù)處理對數(shù)據(jù)主體的重要性和可能產(chǎn)生的后果。”〔29〕使數(shù)據(jù)控制者負(fù)有公開、透明義務(wù),向數(shù)據(jù)主體告知數(shù)據(jù)處理的目的與方式,接受政府、社會的監(jiān)督,這有助于防止數(shù)據(jù)控制者開發(fā)、利用歧視性算法。從 GDPR 第 22 條在歐盟的執(zhí)行情況看,目前極少數(shù)國家(如意大利和羅馬尼亞)將其視為禁令,不允許自動化決策的使用,大多數(shù)歐盟成員國則認(rèn)可其權(quán)利性質(zhì),但是在某些應(yīng)用場景中(如司法和行政)依然禁止自動化決策的使用。
信息泄露、數(shù)據(jù)錯誤導(dǎo)致的現(xiàn)實(shí)溢出效應(yīng),對互聯(lián)網(wǎng)平臺企業(yè)自身的影響不大,其缺乏動力去完善個人信息安保措施。因此需要法律介入,給個人信息處理者施加數(shù)據(jù)安全保障義務(wù)。安全保障義務(wù)以原則的形式被提出最早可追溯到 1980 年 OECD 版本的公平信息實(shí)踐。此后各版本的公平信息實(shí)踐越發(fā)重視個人信息處理者的風(fēng)險防范義務(wù)。〔30〕GDPR 第 35 條第 1 款規(guī)定:“處理,尤其是運(yùn)用新技術(shù)進(jìn)行處理,考慮到處理的性質(zhì)范圍、背景和目的,可能對自然人的權(quán)利和自由產(chǎn)生較高風(fēng)險,因此在進(jìn)行數(shù)據(jù)處理前,控制者應(yīng)對擬進(jìn)行的處理操作進(jìn)行個人數(shù)據(jù)保護(hù)影響評估。”〔31〕該條第7款指出,數(shù)據(jù)保護(hù)影響評估應(yīng)當(dāng)至少包含對數(shù)據(jù)主體權(quán)利和自由風(fēng)險的評估。個人信息處理者的風(fēng)險評估義務(wù)有助于促使其更廣泛地考慮機(jī)器學(xué)習(xí)自動化決策的負(fù)面影響,并積極采取數(shù)據(jù)保護(hù)措施。
四、《個人信息保護(hù)法》中的實(shí)質(zhì)平等化及其限度
新頒布的《個人信息保護(hù)法》同樣遵循了公平信息實(shí)踐的基本框架,構(gòu)建了以權(quán)益保護(hù)為核心的個人信息保護(hù)框架和算法歧視糾偏機(jī)制。首先,該法總則部分借鑒國外立法,規(guī)定了個人信息權(quán)益保障原則(第 1、2 條)、目的明確及使用限定原則(第 6、7 條)、數(shù)據(jù)最小化原則(第 6 條)、公開(透明性)原則(第 7 條)、數(shù)據(jù)質(zhì)量和整全性原則(第 8 條)、安全性原則(第 9 條)。
其次,《個人信息保護(hù)法》第 24 條以法律賦權(quán)方式對自動化決策進(jìn)行了規(guī)制:涉及個人重大權(quán)益的決定,個人有權(quán)要求信息處理者予以說明(算法解釋權(quán)),并有權(quán)拒絕個人信息處理者僅通過自動化決策的方式作出決定(自動化決策拒絕權(quán));與此同時,還規(guī)定運(yùn)用自動化決策的信息處理者有義務(wù)保證決策的透明度和結(jié)果公平、公正。最后,《個人信息保護(hù)法》規(guī)定了個人信息處理者必須承擔(dān)的一系列呼應(yīng)性義務(wù)和責(zé)任,包括信息安全保障義務(wù)(第 51 條)、合規(guī)審計義務(wù)(第 54 條)、個人信息保護(hù)影響評估義務(wù)(第 55、56 條)、安全事件通知義務(wù)(第 57 條)、平臺特殊義務(wù)(第 58 條)等。
從《個人信息保護(hù)法》的內(nèi)容來看,立法者注意到了公民個人和信息處理者之間的資源不平等和能力不平等,并嘗試用一些糾偏性的權(quán)利義務(wù)分配措施,不斷達(dá)致二者的實(shí)質(zhì)化平等并實(shí)現(xiàn)對個人信息權(quán)益的法律保障,解決個人信息收集、使用規(guī)則不透明以及個人信息被過度收集、使用等問題。但這很可能只是一種愿景,或者說只提供了一種可能性,因?yàn)樵摲▽?shí)際只提供了一個框架性規(guī)定。由于信息時代權(quán)利侵害和維權(quán)方式皆不同于傳統(tǒng)社會,那些權(quán)益條款如何在現(xiàn)實(shí)中真正發(fā)揮實(shí)效,仍是存有疑問的。例如,《個人信息保護(hù)法》第 47 條規(guī)定了個人信息刪除權(quán)及信息處理者的刪除義務(wù),符合五種情形之一時,“個人信息處理者應(yīng)當(dāng)主動刪除個人信息;個人信息處理者未刪除的,個人有權(quán)請求刪除”。在個人信息權(quán)益遭受侵害時,第 69 條還明確規(guī)定了過錯推定原則,即“個人信息處理者不能證明自己沒有過錯的,應(yīng)當(dāng)承擔(dān)損害賠償?shù)惹謾?quán)責(zé)任”。但在現(xiàn)實(shí)世界中的普通公民,實(shí)際并不清楚信息處理者是否收集、刪除、保存或不當(dāng)使用了自己的個人信息。就像前面提及的那名古典音樂愛好者,他對哪些信息被用于評價信用以及相關(guān)信息收取渠道和使用等問題,可能是一無所知的。即便信息處理者有時的確侵害了《個人信息保護(hù)法》所保護(hù)的個人信息權(quán)益,被侵害人卻往往無從知曉,也無法做出回應(yīng)。
機(jī)器學(xué)習(xí)能夠發(fā)現(xiàn)零散性數(shù)據(jù)之后的關(guān)聯(lián)性,一條微不足道的數(shù)據(jù)或信息也有可能引出關(guān)鍵情節(jié)或人物,這讓個人生活的“可隱性”或隱私岌岌可危。信息、關(guān)聯(lián)性和隱私之間的關(guān)系,可用以下軼事作一說明:人們在聚會時詢問一位神父,問他在懺悔室里是否聽到過什么非同尋常的故事。神父說:我的第一位懺悔者就是一個很好的例子,他因殺人而懺悔。幾分鐘后,一位優(yōu)雅的紳士也來參加聚會,他看到神父后熱情地打了個招呼。有人問紳士如何認(rèn)識神父的,他回答說:因?yàn)槲液軜s幸地成了他的第一個懺悔者。〔32〕基于信息能力不平等和身份信息流動對個人的負(fù)面影響,主流法律理論皆將個人信息歸入人格權(quán)或隱私權(quán)模型進(jìn)行保護(hù)。但站在個人信息處理者的立場上,個人信息數(shù)據(jù)最突出的屬性卻可能是商業(yè)或治理價值,而這種立場也是持之有據(jù)的,因?yàn)椤秱€人信息保護(hù)法》第 1 條將“保護(hù)個人信息權(quán)益”和“促進(jìn)個人信息合理利用”同時列為立法目標(biāo)。如本文開篇所述,該條初看之下體現(xiàn)了立法者在權(quán)利和效率之間尋求平衡,進(jìn)而在資源分配上實(shí)現(xiàn)平等對待公民個人和信息處理者的立法理念,實(shí)際卻可能引入了一匹“特洛伊木馬”。因?yàn)閭€人信息權(quán)益保護(hù)和個人信息利用經(jīng)常是一對矛盾,至于特定事例中的個人信息利用“合理”與否,往往取決于不同利益主體的實(shí)力和博弈。結(jié)合信息能力不平等的現(xiàn)狀,尤其是個人信息處理者的技術(shù)賦權(quán)、管理地位優(yōu)勢和組織化優(yōu)勢,可以預(yù)見該法基于公平信息實(shí)踐采取的一些實(shí)質(zhì)平等化措施——無論是個人信息隱私權(quán)還是信息自主權(quán)設(shè)置——最后都很難落地生根。
當(dāng)然,《個人信息保護(hù)法》也有一些在規(guī)范層面對信息處理者“不公”的實(shí)質(zhì)平等化措施,主要涉及對自動化決策或算法規(guī)制的條款。該法不僅將公開性或透明性原則列為處理個人信息時應(yīng)當(dāng)遵循的基本原則,還對個人信息處理者設(shè)置了告知義務(wù)以及說明信息處理規(guī)則、方式的義務(wù)。根據(jù)該法第 24 條的字面表達(dá),個人只要主觀上認(rèn)為該自動化決策會對其利益造成重大影響,就可以要求個人信息處理者向其解釋、說明該決策的作出方式。從文義解釋的角度看,“個人權(quán)益”“重大影響”等具有強(qiáng)人身相關(guān)性的措辭,表明個人信息處理者的義務(wù)不僅是公開算法所依據(jù)的抽象原理,還要說明個案層面的決策過程。這會導(dǎo)致個人信息處理者陷入“履行不能”的境地。〔33〕因?yàn)槿粢蛴脩粼敿?xì)解釋自動化決策的過程,信息處理者就必須對算法運(yùn)行的記錄予以保存。但機(jī)器學(xué)習(xí)技術(shù)在本質(zhì)上是個“黑箱”,而且機(jī)器學(xué)習(xí)算法做出每個決策后,會根據(jù)這一新的結(jié)果更新已有的模型,將每個新的觀察數(shù)據(jù)作為訓(xùn)練數(shù)據(jù)的一部分。因此,算法本身處于動態(tài)更新當(dāng)中,類似于南美熱帶雨林中一只扇動翅膀的蝴蝶,即使知道源代碼和最初數(shù)據(jù)也難以精確把握機(jī)器學(xué)習(xí)最終的結(jié)果。〔34〕此外,算法解釋還面臨商業(yè)秘密抗辯和算法可視化障礙,〔35〕因此可行的履行解釋、說明義務(wù)的方式,只能限于向個人較宏觀地描述算法系統(tǒng)的構(gòu)建方式,以及說明處理者如何選擇數(shù)據(jù),訓(xùn)練、測試算法和評估輸出結(jié)果。
另一個是自動化決策的拒絕權(quán)。在 GDPR 中,針對單獨(dú)自動化決策,數(shù)據(jù)主體適用拒絕權(quán)存在例外情形,即單獨(dú)自動化決策是達(dá)成和履行合同的必要條件;或者法律另有規(guī)定;或者數(shù)據(jù)主體明示同意該決定。滿足三種豁免事由之一,數(shù)據(jù)主體就不能行使拒絕權(quán),當(dāng)然數(shù)據(jù)控制者仍然應(yīng)當(dāng)采取適當(dāng)?shù)拇胧┍Wo(hù)數(shù)據(jù)主體的合法權(quán)益。同時,即便在例外情形下,對種族、民族、政治觀點(diǎn)、宗教、基因、健康、性取向等敏感信息的自動化決策依然受到嚴(yán)格限制。但根據(jù)《個人信息保護(hù)法》第 24 條,拒絕權(quán)的行使并無例外情形的限制。只要權(quán)利人主觀上認(rèn)為單獨(dú)自動化決策會對個人權(quán)益造成重大影響,就能行使拒絕權(quán)。但在單獨(dú)自動化決策是履行合同所必需或個人曾明示表達(dá)過同意的情況下,不恰當(dāng)?shù)匦惺咕芙^權(quán)將極大地增加交易成本,阻礙技術(shù)創(chuàng)新和行業(yè)發(fā)展。而《個人信息保護(hù)法》對例外情形未留余地,在實(shí)踐中可能會難以執(zhí)行,建議遵從國際慣例,補(bǔ)充規(guī)定拒絕權(quán)的豁免事由。
與自動化決策相關(guān)的,還有《個人信息保護(hù)法》第 47 條規(guī)定的個人信息刪除權(quán),因?yàn)閯h除權(quán)的行使會對自動化決策產(chǎn)生復(fù)雜的連鎖影響。當(dāng)某人知悉自己的個人信息已被納入機(jī)器學(xué)習(xí)算法模型之中,如果他撤回同意,那么個人信息處理者只能刪除該數(shù)據(jù),或者停止除存儲和采取必要的安全保護(hù)措施之外的處理。這有可能意味著既有的自動化決策模型將不得不被棄用。這一規(guī)定倘若真的落到實(shí)處,對大數(shù)據(jù)開發(fā)、使用會產(chǎn)生釜底抽薪的效果,也讓平等化蒙上了矯枉過正的色彩。筆者認(rèn)為,不宜將“撤回同意”作為信息處理者必須刪除個人信息的事由,除非是應(yīng)個人的請求,否則就混淆了“撤回同意”與“行使刪除權(quán)”這兩個法律行為。此外,應(yīng)當(dāng)根據(jù)個人信息處理的不同階段限制刪除權(quán)的溯及效果,允許經(jīng)過匿名化處理的個人信息保留在自動化決策模型中,也允許個人信息處理者提出非商業(yè)性的抗辯理由或豁免事由。〔36〕
五、余論
個人信息保護(hù)領(lǐng)域的規(guī)范設(shè)置和權(quán)益保護(hù)是一項(xiàng)前沿性的交叉法學(xué)課題,需要結(jié)合憲法、民法、網(wǎng)絡(luò)安全法、數(shù)據(jù)安全法和電子商務(wù)法等領(lǐng)域的規(guī)范和法理展開,也需要在公民個人和信息處理者、權(quán)利與效率、法律與科技創(chuàng)新之間促成一種制度性均勢或平衡。因?yàn)閺臍v史和社會的視角看,法治與共享共治互為因果:沒有哪個利益群體強(qiáng)大到足以支配其他群體,作為正式制度的法律,代言的是多數(shù)群體而非某一群體的利益;一旦實(shí)現(xiàn)了制度性均勢,公權(quán)力機(jī)關(guān)、社會機(jī)構(gòu)和公民個人的行為就會變得可預(yù)測、可理解和穩(wěn)定,并且是受到約束或遵循規(guī)則的。〔37〕因此,助推均勢、代言信息公平的平等原則,既是可持續(xù)法律制度的一條基本原則,也是良法善治的基礎(chǔ)。在個人信息保護(hù)的立法進(jìn)程中,立法者應(yīng)當(dāng)著眼于不同主體在信息資源、信息能力方面的不平等事實(shí),在數(shù)字弱勢群體、普通公民和信息處理者之間設(shè)置一套實(shí)質(zhì)平等化且可操作的權(quán)利義務(wù)分配方案,既強(qiáng)化對個人信息主體的法律賦權(quán),又嚴(yán)格化個人信息處理者的法律義務(wù)。否則難以維護(hù)信息時代的公民基本自由權(quán),也不可能從根本上抑制個人信息收集、使用規(guī)則不透明以及個人信息被過度收集、使用等現(xiàn)象。
當(dāng)然,平等并未涵蓋、也不可能解決個人信息保護(hù)領(lǐng)域的所有問題,而且平等自身在具體事案中的標(biāo)準(zhǔn)或要求,還要結(jié)合問題和語境才能得以展開或明確化。就個人信息保護(hù)立法中的熱點(diǎn)議題——自動化決策或算法規(guī)制而言,防控歧視效應(yīng)當(dāng)然屬于平等所關(guān)切的問題,但最大的問題卻可能是數(shù)據(jù)驅(qū)動型決策之際的法律程序缺位或程序性權(quán)利喪失,以及由此導(dǎo)致的信息不對稱和權(quán)力不對稱,至于歧視效應(yīng)實(shí)際可以歸為這一狀況的副產(chǎn)品。〔38〕因?yàn)樵谌斯せ蚍亲詣踊瘺Q策的場景中,法律程序缺位或程序性權(quán)利喪失,同樣會導(dǎo)致信息不對稱和權(quán)力不對稱,并產(chǎn)生歧視性或不平等的決策結(jié)果。隨之而來的一個關(guān)鍵性問題是,較之人工或非自動化決策,已有大規(guī)模應(yīng)用的自動化決策或算法在公平性尺度上的統(tǒng)計平均值或中位數(shù),是更低還是更高?算法歧視效應(yīng)的根源,是技術(shù)不成熟、規(guī)制不到位還是另有原因?自動化決策的反對者認(rèn)為,自動化決策系統(tǒng)提高了效率卻導(dǎo)致不平等,營造了一所“鎖定窮人、管制窮人甚至懲罰窮人”的“數(shù)字濟(jì)貧院”。這種觀點(diǎn)是缺乏大樣本統(tǒng)計數(shù)據(jù)支撐的,而且只要簡單回顧一下人類歷史,就能發(fā)現(xiàn)在每一個階段、每一種社會以及每一個國家中,窮人或其他任何弱勢群體遭受更多不平等或不公正的對待,乃是一種普遍現(xiàn)象。“窮人”或“弱勢群體”這個種屬概念,本身經(jīng)常和遭遇不公乃至苦難聯(lián)系在一起的,所以他們遭受歧視的現(xiàn)象和自動化決策之間實(shí)際并不存在因果關(guān)系,有時連相關(guān)性都不存在。
由此可以推論,盡管制度設(shè)計和算法規(guī)制水平很重要,但個人信息保護(hù)立法中實(shí)質(zhì)平等化措施的生根落地和實(shí)現(xiàn)算法公正,在根本上取決于法律制度和自動化決策的運(yùn)行環(huán)境平等與否——特定國家的社會平等狀況究竟如何。瑞典學(xué)者大衛(wèi) ? 薩普特運(yùn)用臉書廣告的一項(xiàng)算法推送實(shí)驗(yàn),也證明了這一點(diǎn)。該實(shí)驗(yàn)預(yù)設(shè)每千名男性中對程序員職位感興趣的人數(shù)是每千名女性中感興趣人數(shù)的兩倍,并借助臉書推送招聘廣告。在編輯招聘廣告時,實(shí)驗(yàn)者未注明性別要求,但勾選了若干和程序員有較強(qiáng)關(guān)聯(lián)的算法選項(xiàng)——角色扮演游戲、科幻電影和漫畫。廣告推送后,數(shù)據(jù)統(tǒng)計顯示,對收到這份廣告的樣本人群而言,算法不存在性別歧視。但收到這份廣告的男性數(shù)量是女性的四倍,因此在直觀上結(jié)果有失平等。第二次實(shí)驗(yàn)者隨機(jī)勾選了更多的算法選項(xiàng),結(jié)果是男女兩性收到廣告且對職位感興趣的數(shù)量比和每千人中實(shí)際感興趣的數(shù)量比相一致,而且與男女兩性對職位感興趣卻沒收到廣告的數(shù)量比也一致,因此修改后的算法顯得更為平等。但是收到廣告的女性中只有三分之一的人對職位感興趣,而收到廣告的男性中有一半的人感興趣,那么這是否意味著對男性存在歧視?該實(shí)驗(yàn)說明,不平等現(xiàn)象就如打地鼠游戲:將地鼠從一個地方敲下去,它就會從另一地方又冒出來;在群體之間進(jìn)行校準(zhǔn)和得到相同的招聘誤報率及漏報率,對算法來說是不可兼得的。〔39〕實(shí)際上,只有當(dāng)學(xué)習(xí)、掌握計算機(jī)編程的男性和女性一樣多時,才有可能設(shè)計出完全沒有偏見的算法招聘廣告,而這恰恰取決于特定社會中性別平等的實(shí)現(xiàn)狀況。
論文指導(dǎo) >
SCI期刊推薦 >
論文常見問題 >
SCI常見問題 >