師文 陳昌鳳 呂宇翔
【摘要】雖然算法作為科學(xué)術(shù)語(yǔ)的內(nèi)涵相對(duì)確定,但算法在與新聞傳播學(xué)界發(fā)生交涉的過(guò)程中延展出一系列豐富的外延。在智能媒體研究經(jīng)歷了數(shù)年蓬勃發(fā)展之際,為理解算法研究各方向的分歧所在,促進(jìn)不同研究路徑之間的對(duì)話(huà),文章試圖剖析多元算法研究視角所依托的迥然不同的算法定義,采用話(huà)語(yǔ)研究視角,分析不同研究對(duì)算法持有的觀(guān)念及其相應(yīng)的支撐邏輯。在綜述十九大以來(lái)智能媒體研究的基礎(chǔ)上,探究學(xué)術(shù)界開(kāi)展算法研究的認(rèn)識(shí)論基礎(chǔ)。黨的十九大以來(lái),學(xué)術(shù)界圍繞算法形成的話(huà)語(yǔ)被歸為六類(lèi)——算法是工具、算法是規(guī)則、算法是權(quán)力、算法是主體、算法是想象、算法是價(jià)值表達(dá),不同話(huà)語(yǔ)的邏輯、關(guān)鍵發(fā)現(xiàn)、進(jìn)步性與局限性也得到具體詮釋。
【關(guān)鍵詞】智能媒體 算法研究 數(shù)字新聞學(xué) 計(jì)算傳播
【中圖分類(lèi)號(hào)】G206 【文獻(xiàn)標(biāo)識(shí)碼】A 【文章編號(hào)】1003-6687(2022)4-082-08
【DOI】 10.13786/j.cnki.cn14-1066/g2.2022.4.010
算法一詞脫胎于計(jì)算機(jī)科學(xué),其被定義為解決問(wèn)題的一套邏輯,可以對(duì)特定的輸入進(jìn)行處理,獲得符合預(yù)期的輸出,是自動(dòng)執(zhí)行人類(lèi)意志的計(jì)算工具。當(dāng)算法進(jìn)入新聞傳播學(xué)學(xué)科后,其指代范疇走向窄化,特指機(jī)器學(xué)習(xí)或深度學(xué)習(xí)的人工智能算法,典型代表是個(gè)性化新聞推薦算法、機(jī)器人寫(xiě)作算法等。雖然算法作為科學(xué)術(shù)語(yǔ)的內(nèi)涵相對(duì)確定,但算法在與新聞傳播學(xué)界發(fā)生交涉的過(guò)程中,還拓展出一系列豐富的外延。算法作為限定詞與新聞傳播領(lǐng)域的原生概念相互耦合,產(chǎn)生了算法新聞、算法傳播、算法治理、算法倫理等一系列術(shù)語(yǔ)。與此同時(shí),學(xué)術(shù)界探討算法的角度也在持續(xù)拓展,學(xué)者們既關(guān)注算法在新聞傳播領(lǐng)域的功能性延展,也觸及算法對(duì)現(xiàn)實(shí)社會(huì)的邏輯性影響;既對(duì)新聞生產(chǎn)、傳播環(huán)境、社會(huì)秩序中的算法進(jìn)行實(shí)證評(píng)估,也從權(quán)力、倫理、技術(shù)哲學(xué)角度對(duì)其展開(kāi)思辨反思。
多元的算法研究視角源于對(duì)算法迥然不同的理解,這固然使智能媒體研究領(lǐng)域積累了大量的成果,但也導(dǎo)致不同研究的立場(chǎng)、觀(guān)點(diǎn)和判斷大相徑庭,甚至相互矛盾。在智能媒體研究經(jīng)歷了數(shù)年蓬勃發(fā)展之際,有必要理解算法研究各方向的分歧所在,促進(jìn)不同研究路徑之間的對(duì)話(huà)。這就要求厘清算法在新聞傳播語(yǔ)境下生發(fā)出的豐富外延,區(qū)分不同研究所依循的算法定義。
對(duì)新聞傳播學(xué)視角下的算法外延進(jìn)行界定是一件困難的事情。鑒于此處討論的算法已不再是一個(gè)純粹的技術(shù)概念,其含義隨著算法應(yīng)用的社會(huì)場(chǎng)景及學(xué)術(shù)思潮的迭代而處于動(dòng)態(tài)變化中,采用自然科學(xué)界所推崇的本質(zhì)主義視角回應(yīng)算法是什么顯得力有不逮。因此,本研究放棄本質(zhì)主義視角,采用話(huà)語(yǔ)研究的視角,探究不同研究對(duì)算法持有的觀(guān)念,即算法在不同的語(yǔ)境下被視作什么及其相應(yīng)的支撐邏輯。[1]基于話(huà)語(yǔ)研究的思路,本文對(duì)過(guò)去五年的國(guó)內(nèi)外算法研究進(jìn)行爬梳,將算法話(huà)語(yǔ)歸為六大類(lèi)別,分別是算法是工具、算法是規(guī)則、算法是權(quán)力、算法是主體、算法是想象、算法是價(jià)值表達(dá)。
一、算法是工具
在計(jì)算機(jī)學(xué)科中,算法被簡(jiǎn)單地理解為自動(dòng)執(zhí)行邏輯的工具。新聞傳播學(xué)科與計(jì)算機(jī)學(xué)科對(duì)算法研究的興趣點(diǎn)存在較大差異,其不關(guān)注提升算法功能的技術(shù)創(chuàng)新,也鮮少用各類(lèi)量化指標(biāo)測(cè)評(píng)算法的效能,但計(jì)算機(jī)科學(xué)將算法視為工具的思路仍然在許多新聞傳播學(xué)研究中得到承襲。在這類(lèi)研究中,算法被視作智能化實(shí)現(xiàn)類(lèi)人決策的工具,是人類(lèi)智能的簡(jiǎn)單替代,被用于滿(mǎn)足算法設(shè)計(jì)者、使用者或服務(wù)者的期待。
在算法最初進(jìn)入新聞傳播業(yè)時(shí),算法是工具的視角指導(dǎo)了大量對(duì)于算法的思考,這類(lèi)研究的代表是算法輔助新聞生產(chǎn),即關(guān)注算法如何輔助人類(lèi)進(jìn)行新聞采集、寫(xiě)作、分發(fā)、播報(bào)、核查,其回應(yīng)的是算法對(duì)新聞傳播業(yè)的功能性滲透。這些研究側(cè)重關(guān)注算法的形式、性能和交互如何被精心設(shè)計(jì),以使其更完美地執(zhí)行人類(lèi)的預(yù)期目標(biāo)。對(duì)新聞從業(yè)者的訪(fǎng)談也佐證了這一點(diǎn),他們面對(duì)計(jì)算機(jī)輔助新聞生產(chǎn)技術(shù)表現(xiàn)出主導(dǎo)者心態(tài),認(rèn)為算法應(yīng)被用于解放新聞工作者,而不是領(lǐng)導(dǎo)新聞工作者。[2]研究還發(fā)現(xiàn),媒介組織可以選擇適合其組織業(yè)務(wù)模式的個(gè)性化推薦算法,這一選擇空間表明了媒介組織在使用算法工具時(shí)的主導(dǎo)性,算法甚至不是媒介組織賴(lài)以滿(mǎn)足用戶(hù)需求的工具,而是媒介組織選擇出來(lái)的管理其用戶(hù)需求的工具。[3]
即便許多研究未直接聚焦于算法輔助新聞生產(chǎn),其研究?jī)?nèi)核也是建立在算法是工具的邏輯之上。如大量研究圍繞算法效果展開(kāi),關(guān)注新聞推薦算法、自動(dòng)化新聞寫(xiě)作算法可以在多大程度上獲得讀者的認(rèn)可、信任,特別是與編輯推薦、記者寫(xiě)作相比較,這類(lèi)研究雖然依托于社會(huì)場(chǎng)景展開(kāi),但在邏輯上與計(jì)算機(jī)學(xué)科實(shí)行的算法效果評(píng)估并無(wú)二致,核心關(guān)切仍在于算法在何種程度上能滿(mǎn)足對(duì)人類(lèi)的工具性替代。算法對(duì)信息環(huán)境影響的相關(guān)研究也與之類(lèi)似,其關(guān)注算法對(duì)于信息極化、選擇性接觸的影響,[4][5]在某種意義上是探究算法作為一種信息分發(fā)工具是否以一種符合預(yù)期的方式履行信息分發(fā)職能,以期對(duì)可能出現(xiàn)的功能性偏差進(jìn)行修正管理。
算法是工具的話(huà)語(yǔ)意味著研究者將算法視為被人類(lèi)所掌控、操縱的自動(dòng)化工具,反映了工具理性的潛意識(shí)。算法是工具的視角回應(yīng)了算法被引入新聞傳播業(yè)的最基本功能,可以推進(jìn)更高效、精準(zhǔn)的算法實(shí)踐。但該視角的局限性也較為明顯,當(dāng)算法作為新時(shí)代的基礎(chǔ)技術(shù)設(shè)施融入社會(huì)生活時(shí),其與社會(huì)的互動(dòng)并非僅是工具性的,而是在社會(huì)文化土壤中與既有社會(huì)存在發(fā)生大量意義層面的交互。換言之,算法不僅是客體性或直觀(guān)性的形式,更是應(yīng)接受意義解讀的實(shí)踐。[6]從這個(gè)維度上講,算法是工具的話(huà)語(yǔ)對(duì)復(fù)雜算法實(shí)踐的解釋力十分有限,只能被視作探究算法與新聞傳播業(yè)交互關(guān)系的起點(diǎn)。
二、算法是規(guī)則
算法是規(guī)則的話(huà)語(yǔ)比算法是工具的視角更進(jìn)一步,其意識(shí)到算法不僅在形式上成為新聞傳播實(shí)踐的部分流程,也參與塑造了實(shí)踐的內(nèi)在邏輯。如在信息分發(fā)環(huán)節(jié),人工智能由于催生了新的社會(huì)能見(jiàn)度控制機(jī)制,[7]成為支配智能時(shí)代信息生產(chǎn)傳播的新規(guī)則。算法的影響未必局限于特定的科技公司或平臺(tái),鑒于處于主導(dǎo)地位的機(jī)構(gòu)所制定的算法會(huì)引起行業(yè)范圍內(nèi)的效仿,算法規(guī)則甚至可以從個(gè)別組織延伸至整個(gè)行業(yè),參與塑造更具共同性的規(guī)則。[8]
算法是規(guī)則的一個(gè)重要表現(xiàn)是,新聞生產(chǎn)者和新聞消費(fèi)者對(duì)新聞規(guī)則的掌控力正逐漸降低。一項(xiàng)研究發(fā)現(xiàn),被算法歸類(lèi)為對(duì)新聞或政治感興趣的用戶(hù)更可能在信息流中看到這類(lèi)新聞——即使這超出了他們自我報(bào)告的個(gè)人興趣。[9]對(duì)于新聞從業(yè)者而言,算法將新聞的構(gòu)成分解為文章的排列,這使他們的使命感受到威脅。[10]新聞媒體正為適應(yīng)算法規(guī)則做出調(diào)整,由于社交媒體信息推薦算法看重用戶(hù)參與度,媒體的內(nèi)容投放越來(lái)越“軟化”;[11]為適應(yīng)搜索引擎優(yōu)化(SEO)規(guī)則,提升新聞在搜索引擎中的檢索排名,新聞編輯室的內(nèi)容編寫(xiě)邏輯遵循搜索引擎(而非人類(lèi))的規(guī)則,自動(dòng)化標(biāo)題寫(xiě)作技術(shù)的引入也重新協(xié)調(diào)了人機(jī)之間的協(xié)作關(guān)系,區(qū)分了適合機(jī)器承擔(dān)的基于規(guī)則的角色和人類(lèi)承擔(dān)的基于知識(shí)的角色。[12]
算法的規(guī)則可能以隱蔽、不對(duì)稱(chēng)的方式存在。有研究者分析了Instagram平臺(tái)關(guān)于“影子禁令”(即對(duì)特定用戶(hù)或帖子的可見(jiàn)性進(jìn)行降級(jí))是否存在的解釋?zhuān)J(rèn)為算法持有者可以借助撲朔迷離的規(guī)則解釋和實(shí)現(xiàn)對(duì)用戶(hù)的操縱,即平臺(tái)的算法解釋在用戶(hù)心中具有權(quán)威性,而平臺(tái)利用這一信息不對(duì)稱(chēng)性,破壞用戶(hù)對(duì)于算法知識(shí)的自信,并消解其批評(píng)的可信性,使平臺(tái)在與用戶(hù)開(kāi)展認(rèn)知競(jìng)賽時(shí)處于優(yōu)勢(shì)地位。[13]
當(dāng)然,算法的規(guī)則并非以一種單向的方式作用于用戶(hù),用戶(hù)未曾放棄適應(yīng)與利用算法規(guī)則。研究發(fā)現(xiàn),面對(duì)算法呈現(xiàn)的規(guī)則系統(tǒng),用戶(hù)可以積極地尋找策略以實(shí)現(xiàn)算法使用過(guò)程中的利益最大化。一項(xiàng)針對(duì)打車(chē)平臺(tái)的調(diào)查研究發(fā)現(xiàn),用戶(hù)能動(dòng)地采用優(yōu)化獲益、降低風(fēng)險(xiǎn)、確定規(guī)則邊界、嘗試跨平臺(tái)、形成啟發(fā)式原則五種方法作為消費(fèi)策略,實(shí)現(xiàn)個(gè)人算法使用的最優(yōu)效果。[14]面對(duì)搜索引擎算法提供的檢索結(jié)果,用戶(hù)能進(jìn)行信息接觸方面的抉擇,以保持其與個(gè)人先前的信念一致,從而消解算法的影響。[15]算法本身也成為協(xié)助用戶(hù)掌握算法分發(fā)機(jī)制的助力,如一個(gè)名為Hootsuite的算法幫助其使用者決定何時(shí)發(fā)送推文可獲得用戶(hù)最大的關(guān)注,這使得用戶(hù)在不了解分發(fā)算法運(yùn)作機(jī)理的情況下適應(yīng)算法生態(tài)。[13]不過(guò),用戶(hù)積極的應(yīng)對(duì)策略未必能在真正意義上幫其獲得與平臺(tái)相對(duì)的優(yōu)勢(shì)。在YouTube平臺(tái)上,面對(duì)平臺(tái)算法“黑箱”帶來(lái)的信息不對(duì)稱(chēng),有部分YouTube用戶(hù)聲稱(chēng)其理解算法是如何工作的,并向其他創(chuàng)作者傳授如何更好地適應(yīng)YouTube的算法系統(tǒng)。但研究者認(rèn)為,雖然這種操作看似在為創(chuàng)作者提供策略支持,但其最終結(jié)果是使平臺(tái)在勞動(dòng)和內(nèi)容方面受益。[16]
算法是規(guī)則這一話(huà)語(yǔ)的邏輯在于,算法并非僅充當(dāng)著信息傳播的渠道或工具,而是成為傳播過(guò)程中新的中介機(jī)制,對(duì)信息傳播的規(guī)則乃至社會(huì)關(guān)系起到調(diào)節(jié)作用。[17]算法本就是規(guī)范化的社會(huì)規(guī)則在技術(shù)領(lǐng)域的延伸,考慮到算法的形成還需接受技術(shù)專(zhuān)家、計(jì)算對(duì)象和算法邏輯等多重作用,算法在構(gòu)建數(shù)字景觀(guān)的過(guò)程中還可能對(duì)原有的社會(huì)規(guī)則進(jìn)行再書(shū)寫(xiě)。[18]
三、算法是權(quán)力
算法以匹配、調(diào)節(jié)與控制等方式塑造了事物之間的關(guān)系,并由此獲取權(quán)力。[19]對(duì)于新聞傳播業(yè)而言,算法對(duì)新聞傳播活動(dòng)的介入推動(dòng)了傳播權(quán)力的遷移。[20]智能媒體對(duì)技術(shù)的高需求有利于科技巨頭承包屬于媒體機(jī)構(gòu)的業(yè)務(wù),掌握新聞分發(fā)渠道,[21]傳統(tǒng)的新聞生產(chǎn)機(jī)構(gòu)和掌握技術(shù)的新興平臺(tái)圍繞傳播效果進(jìn)行爭(zhēng)奪。[22]許多關(guān)于算法透明性的討論也建立在算法是權(quán)力這一隱喻之上,認(rèn)為算法使傳播的過(guò)程后臺(tái)化,“黑箱”反過(guò)來(lái)加劇了算法科學(xué)的崇高化,使信息生產(chǎn)與分發(fā)的流程超越了外部監(jiān)督的范疇。
新信息傳播秩序的形成也圍繞算法展開(kāi)。對(duì)搜索引擎查詢(xún)結(jié)果的研究發(fā)現(xiàn),雖然群體對(duì)其檢索詞各有偏好,但搜索引擎傾向于向他們反饋相似的檢索結(jié)果,這表現(xiàn)出主流化效果。[23]用戶(hù)的算法素養(yǎng)差異使算法無(wú)法為各個(gè)群體進(jìn)行平等的賦權(quán)。[24]算法相關(guān)的接入鴻溝、使用鴻溝和內(nèi)容鴻溝影響用戶(hù)獲取信息的機(jī)會(huì)。[25]
算法權(quán)力的另一種表現(xiàn)形式是通過(guò)個(gè)人信息商品化加劇公眾與科技巨頭、國(guó)家之間的地位差異,使公共權(quán)力被讓渡至技術(shù)和數(shù)據(jù)巨頭手中。監(jiān)視資本主義是Zuboff在2015年提出的概念,指由于數(shù)據(jù)可被用于分析、預(yù)測(cè)和影響個(gè)人行為,科技巨頭收集大量個(gè)人數(shù)據(jù)并將其商品化、產(chǎn)品化以謀取利益。[26]亞馬遜公司所提供的門(mén)鈴、傳感器等智能服務(wù)也被視作將數(shù)字監(jiān)控基礎(chǔ)設(shè)施作為牟利工具的不正當(dāng)行為。
雖然此前監(jiān)視資本主義的相關(guān)指控主要指向科技公司,但隨著智能算法被越來(lái)越多地應(yīng)用于公共服務(wù),該概念也被應(yīng)用于對(duì)國(guó)家行為的分析。大數(shù)據(jù)驅(qū)動(dòng)的智能治理將擴(kuò)大國(guó)家與個(gè)人間的信息不對(duì)等,個(gè)人置身于智能化的超級(jí)全景監(jiān)獄中。[27][28]研究者發(fā)現(xiàn),智能應(yīng)用反映了設(shè)計(jì)者的價(jià)值觀(guān),在程序化交互中貫徹歐洲中心主義,這都呈現(xiàn)了智能應(yīng)用的殖民性。[29]
但算法的權(quán)力并非單向的、支配性的。用戶(hù)已經(jīng)進(jìn)行了大量的抵抗算法權(quán)力的實(shí)踐。為對(duì)抗人工智能的技術(shù)監(jiān)視,CV Dazzle活動(dòng)鼓吹以策略化的化妝術(shù)阻礙人臉識(shí)別算法的運(yùn)作,以激發(fā)對(duì)智能技術(shù)的反思意識(shí)。[30]相比之下,一種更具建設(shè)性的抵抗方式是,用戶(hù)積極地參與干預(yù)、塑造算法的過(guò)程,以修補(bǔ)算法中的不足。如一位名為Johanna Burai的用戶(hù)在檢索手的圖片時(shí),發(fā)現(xiàn)算法反饋的結(jié)果都是白人的手部圖片,因而意識(shí)到算法中存在種族偏見(jiàn)。她策略性地設(shè)計(jì)了一個(gè)提供非白人手部圖片的下載網(wǎng)站,輔之以針對(duì)新聞媒體的宣傳活動(dòng),最終將自己發(fā)布的圖片躍升到圖片搜索的熱門(mén)結(jié)果中。[31]雖然這一實(shí)踐不具備普遍推廣的可行性,但其為研究算法提供了新的框架,因?yàn)檫@意味著在用戶(hù)與算法的關(guān)系中,用戶(hù)并不完全是無(wú)力的圍觀(guān)者,其可以政治、商業(yè)等方式策略性地參與算法塑造。
傳播本就是一種權(quán)力,其可以通過(guò)信息呈現(xiàn)和意義賦予,在構(gòu)建社會(huì)現(xiàn)實(shí)的過(guò)程中發(fā)揮關(guān)鍵作用。算法是權(quán)力的話(huà)語(yǔ)可被看作這一思想在智能時(shí)代的延續(xù)。算法技術(shù)的普及使越來(lái)越多的信息分發(fā)決策權(quán)從人類(lèi)讓渡至算法、從傳統(tǒng)媒體機(jī)構(gòu)讓渡至科技公司。鑒于算法是科技力量和數(shù)據(jù)所有者的代言人,該權(quán)力遷移勢(shì)必推動(dòng)傳統(tǒng)意義上個(gè)人、媒體、商業(yè)、國(guó)家之間的力量對(duì)比發(fā)生變化,形成一套以算法權(quán)力為標(biāo)尺的新信息傳播格局。
四、算法是主體
與其他技術(shù)不同,算法所具有的智能屬性使其更接近類(lèi)人的智能實(shí)體,算法與人類(lèi)之間差異的縮小乃至邊界的模糊,為挑戰(zhàn)傳統(tǒng)新聞傳播實(shí)踐的元邏輯提供了契機(jī)。媒介技術(shù)哲學(xué)認(rèn)為,人工智能算法應(yīng)被理解成一種人機(jī)混合物,其捕獲人的認(rèn)知、嵌入自身,而非簡(jiǎn)單地再現(xiàn)人類(lèi)智慧。[32]從實(shí)踐層面展開(kāi)的思考與之不謀而合,認(rèn)為傳統(tǒng)的人—機(jī)二元對(duì)立劃分對(duì)現(xiàn)實(shí)的解釋力正在下降,人與算法發(fā)生的多重復(fù)雜互動(dòng)呼吁以人—機(jī)混合體的視角審視算法的功能。[33]在新聞生產(chǎn)領(lǐng)域,主體性的反思因此產(chǎn)生,有學(xué)者提出媒介技術(shù)與人在廣義新聞生產(chǎn)的微觀(guān)過(guò)程中共同構(gòu)成了一個(gè)媒介網(wǎng)絡(luò),[34]算法作為動(dòng)態(tài)行動(dòng)者網(wǎng)絡(luò)中的非人類(lèi)行動(dòng)者,可以成為改變事物狀態(tài)的非人要素。[35]
即便跳脫出新聞生產(chǎn)的語(yǔ)境,也可以發(fā)現(xiàn)智能算法正在消解建立在人類(lèi)中心主義之上的傳統(tǒng)傳播觀(guān)念。[36]在智能技術(shù)出現(xiàn)之前,機(jī)器因缺乏交流性被視為傳播的中介,而非適格的交流主體。但人工智能技術(shù)使機(jī)器更具智能性,人機(jī)之間的邊界變得模糊。在機(jī)器設(shè)計(jì)的過(guò)程中,人類(lèi)將社會(huì)文化意義嵌入其中,[37]賦予其成為超越工具的社交角色的潛力。人類(lèi)用戶(hù)在與機(jī)器進(jìn)行互動(dòng)時(shí),也會(huì)不自覺(jué)地將其擬人化,將其視作一個(gè)有意識(shí)的生命體,并產(chǎn)生與其他人類(lèi)交往時(shí)類(lèi)似的情感。[38]在社交媒體上,由計(jì)算機(jī)軟件操縱的自動(dòng)化賬戶(hù)——社交機(jī)器人可以像人類(lèi)一樣發(fā)布內(nèi)容、開(kāi)展互動(dòng),研究證實(shí)這些機(jī)器人有足夠強(qiáng)的欺騙性,能夠誘發(fā)人類(lèi)用戶(hù)主動(dòng)與之互動(dòng)。[39]以上現(xiàn)象表明,機(jī)器正在以傳播者的姿態(tài)進(jìn)入傳統(tǒng)意義上僅出現(xiàn)在人類(lèi)之間的人際傳播、群體傳播和大眾傳播領(lǐng)域。
為回應(yīng)傳播生態(tài)中出現(xiàn)的新型主體,傳播學(xué)界在此前人機(jī)交互的基礎(chǔ)上提出人機(jī)傳播概念,以對(duì)新媒介環(huán)境下的傳播主體進(jìn)行再定義。人機(jī)傳播理論認(rèn)為,人與技術(shù)之間的本體論鴻溝并非不可跨越,在智能媒體生態(tài)下,機(jī)器不僅僅是交流的工具或中介,其本身也具有能動(dòng)的交流性,其不僅可以完成傳播的基本過(guò)程,也可與人類(lèi)產(chǎn)生關(guān)系層面的交互意義。人類(lèi)對(duì)機(jī)器的理解、與機(jī)器關(guān)系的建構(gòu)、與機(jī)器之間的邊界應(yīng)成為未來(lái)人機(jī)交流研究的要點(diǎn)。[40]
人機(jī)之間產(chǎn)生的具有社會(huì)意義的關(guān)系是將算法視作主體的重要依據(jù)。[41]在電子游戲中,人們會(huì)通過(guò)各種文化想象將作為技術(shù)他者的虛擬玩家擬人化,與這些角色的互動(dòng)會(huì)影響玩家的線(xiàn)下人際關(guān)系,從而模糊人類(lèi)與非人類(lèi)、現(xiàn)實(shí)與虛擬之間的界限。[42]也有研究注意到,在團(tuán)隊(duì)溝通的任務(wù)屬性和關(guān)系屬性中,社交機(jī)器人越來(lái)越側(cè)重于承擔(dān)起關(guān)系類(lèi)功能,其可以通過(guò)提供社會(huì)情感化的、個(gè)人化的響應(yīng)促進(jìn)團(tuán)隊(duì)中的關(guān)系型溝通。[43]事實(shí)上,近年來(lái)有大量研究從情感維度探究人機(jī)之間的關(guān)系,如探究算法信息審查相比人工信息審查是否能帶來(lái)公平感[43]、透明感[44]。此外,還圍繞信任感[45]、孤獨(dú)感[46][47]乃至算法的情商等問(wèn)題進(jìn)行探討。[48]這些研究共同的潛臺(tái)詞是,人們對(duì)算法的期待不僅限于被使用的物品或工具,還將其擬人化為可能滿(mǎn)足自身關(guān)系需求的互動(dòng)者、交流者。
算法是主體的話(huà)語(yǔ)首次將算法從物的高度提升至類(lèi)似人的高度,不論是對(duì)傳統(tǒng)的新聞傳播研究,還是對(duì)算法研究,都具有較大的顛覆意義。該話(huà)語(yǔ)的前瞻性在于其直面人工智能的終極目標(biāo)——使算法像人一樣進(jìn)行決策,并將這一目標(biāo)作為思考的前提,思考算法與人之間的邊界及關(guān)系問(wèn)題。雖然當(dāng)前的算法與具有類(lèi)人智慧的強(qiáng)人工智能間差距尚遠(yuǎn),但大量算法應(yīng)用已將類(lèi)人作為產(chǎn)品定位,反思類(lèi)人算法為新聞傳播業(yè)元邏輯帶來(lái)的變化,具有實(shí)踐和理論層面的必要性。
五、算法是想象
如果說(shuō)上述話(huà)語(yǔ)對(duì)算法的機(jī)制、效果和功能的關(guān)注均是從算法本位的角度展開(kāi)的,那么作為想象的算法則轉(zhuǎn)而使用用戶(hù)本位的視角理解算法。在這一視角下,算法并非僅憑借其客觀(guān)形態(tài)而存在,其同時(shí)也是一種具備解讀空間的可寫(xiě)文本,用戶(hù)針對(duì)算法形成的個(gè)人化理解與想象是該視角的核心關(guān)切。
一種對(duì)算法想象的關(guān)注側(cè)重用戶(hù)對(duì)算法的理解在多大程度上符合事實(shí)。與媒介素養(yǎng)的邏輯類(lèi)似,算法素養(yǎng)這一概念被發(fā)展出來(lái)以評(píng)估用戶(hù)的算法意識(shí)和算法知識(shí)在多大程度上與客觀(guān)事實(shí)相符。其中,算法意識(shí)指用戶(hù)意識(shí)到算法存在于環(huán)境之中,包括了解算法可以實(shí)現(xiàn)何種功能、算法實(shí)際被用于何種場(chǎng)景;算法知識(shí)指用戶(hù)理解算法的運(yùn)作機(jī)理,包括算法提供的個(gè)性化信息服務(wù)、算法的種類(lèi)、算法對(duì)信息環(huán)境施加的影響。[49]
作為算法素養(yǎng)的首要構(gòu)成要素,算法意識(shí)引起了特別的關(guān)注。對(duì)算法意識(shí)的聚類(lèi)分析發(fā)現(xiàn),其可以分為無(wú)意識(shí)、不確定、確定、中立、懷疑和批判六種,算法意識(shí)的差異可以影響人們對(duì)算法應(yīng)用的使用態(tài)度,是否具有足夠的算法意識(shí)也被視作一種新興的數(shù)字鴻溝。[50]對(duì)一個(gè)名為Instawareness的視覺(jué)反饋工具的效果測(cè)驗(yàn)發(fā)現(xiàn),其可以有效提升用戶(hù)算法素養(yǎng)和對(duì)算法的反思。該研究的啟示在于,尚不論提升算法認(rèn)知,僅提升算法意識(shí),即可引起用戶(hù)對(duì)算法的批判性關(guān)注。[51]
大量研究已經(jīng)不再試圖比較用戶(hù)對(duì)算法的理解與客觀(guān)事實(shí),而是聚焦用戶(hù)對(duì)算法的主觀(guān)感受,即主觀(guān)看法、想象和非專(zhuān)業(yè)解釋理論。如有研究者要求用戶(hù)從其個(gè)人賬戶(hù)中查看算法為其生成的畫(huà)像文件,以研究當(dāng)用戶(hù)面對(duì)算法畫(huà)像時(shí)作何感想。[52]也有研究立足于受眾立場(chǎng),了解其如何、何時(shí)接受或拒絕來(lái)自算法的建議。[53]“算法厭惡”和“算法欣賞”正被用作解釋用戶(hù)算法使用行為的視角,即關(guān)注為什么人們厭惡或偏愛(ài)算法或?yàn)楹纹没騾拹耗骋环N算法。[53]
對(duì)算法的想象不僅來(lái)自個(gè)人層面,更是一種持久的、集體的社會(huì)技術(shù)想象。視頻博主會(huì)共享彼此對(duì)YouTube算法規(guī)則的理解,共同形成對(duì)算法的集體感知,[54]用戶(hù)在感知算法的過(guò)程中甚至還會(huì)進(jìn)行擬人化的文化意義解讀。[55]在公共視野中,社會(huì)不同行動(dòng)者對(duì)算法提出的差異化定義促成了社會(huì)技術(shù)想象的生成,經(jīng)過(guò)權(quán)力機(jī)關(guān)的協(xié)商、裁定,某種特定的想象被凸顯出來(lái),并得以穩(wěn)定和制度化。[56]
需要補(bǔ)充的是,在研究用戶(hù)對(duì)算法的主觀(guān)詮釋時(shí),算法想象和算法民間理論常被用作理論資源,但二者的側(cè)重點(diǎn)有細(xì)微的差別。算法想象主要關(guān)注人類(lèi)如何思考算法是什么、算法應(yīng)該是什么、算法如何運(yùn)行,以及上述觀(guān)點(diǎn)如何在塑造算法的過(guò)程中發(fā)揮生成性作用。[57]民間理論最初關(guān)注的是人們?nèi)绾卧谌粘=?jīng)驗(yàn)中直覺(jué)式地理解媒介運(yùn)作方式,并形成一定的模型或原則。[58]在被引入算法研究領(lǐng)域之后,民間理論被用于解釋公眾雖然并不清楚算法運(yùn)作的內(nèi)部原理,卻基于個(gè)人經(jīng)驗(yàn)形成了對(duì)算法如何運(yùn)作的直覺(jué)式理解,以一種非專(zhuān)業(yè)的方式分析算法的后果及效果。民間理論不僅在指導(dǎo)用戶(hù)行為方面具有意義,而且在理解實(shí)踐、產(chǎn)生推理方面也發(fā)揮作用。[59]
算法是想象的話(huà)語(yǔ)對(duì)思考算法問(wèn)題有兩點(diǎn)啟發(fā)。其一,該話(huà)語(yǔ)通過(guò)關(guān)注人類(lèi)面對(duì)算法時(shí)的主觀(guān)理解,超越了在客觀(guān)維度上對(duì)算法展開(kāi)的探尋,轉(zhuǎn)而采用以人為主的視角關(guān)注算法的社會(huì)意義,強(qiáng)調(diào)人并非被動(dòng)接受算法支配,而是積極的算法詮釋者、適應(yīng)者和使用者,這一視角有助于在現(xiàn)實(shí)層面理解用戶(hù)、算法和平臺(tái)之間兼具支配性與對(duì)抗性的復(fù)雜共生關(guān)系。其二,算法是想象話(huà)語(yǔ)中所關(guān)注的人,并非洞察算法規(guī)則、擁有知識(shí)特權(quán)的技術(shù)精英,而是算法素養(yǎng)參差不齊的普羅大眾。通過(guò)正視普通用戶(hù)的主觀(guān)算法想象,該話(huà)語(yǔ)不再僅將算法理解為知識(shí)精英締造的由上至下的科學(xué)神話(huà),而是將其看作可供解讀的有機(jī)意義空間,[60]這一視角賦予算法草根解讀以正當(dāng)性,展現(xiàn)了算法實(shí)踐中文化性、抗?fàn)幮缘囊幻妗?/p>
六、算法是價(jià)值表達(dá)
算法雖因科學(xué)技術(shù)的加持而看似中立、崇高,但其實(shí)際上脫胎于特定的社會(huì)文化土壤。作為人類(lèi)邏輯的延伸,算法承載著豐富的價(jià)值表達(dá)。一方面,算法本身即包含內(nèi)在的價(jià)值偏向。算法內(nèi)在的價(jià)值偏向可能源于算法產(chǎn)品的定位策略,如從業(yè)者認(rèn)為新聞推薦算法是新聞編輯室編輯活動(dòng)的延伸,因此應(yīng)將新聞機(jī)構(gòu)的價(jià)值觀(guān)整合進(jìn)智能算法應(yīng)用的設(shè)計(jì)中。算法價(jià)值還可能來(lái)自數(shù)據(jù)標(biāo)注環(huán)節(jié)、[61]算法邏輯設(shè)計(jì)的無(wú)意識(shí)偏差。[62]另一方面,算法可能被其使用者用于非價(jià)值中立的場(chǎng)景中。如除了進(jìn)行事實(shí)層面的判斷,算法還可能被用于進(jìn)行道德決策,[63]或像“深度偽造”一樣,用于實(shí)現(xiàn)非正義的欺騙效果。
然而,上述針對(duì)算法價(jià)值偏向的批判性審視并不意味著否認(rèn)算法價(jià)值表達(dá)的正當(dāng)性。恰恰相反,對(duì)近年來(lái)國(guó)內(nèi)媒體上算法相關(guān)討論的觀(guān)察發(fā)現(xiàn),價(jià)值表達(dá)正超越價(jià)值無(wú)涉成為對(duì)算法的期待。[64]在算法逐漸成為公共服務(wù)基礎(chǔ)設(shè)施的背景下,算法不僅應(yīng)追求技術(shù)性能上的卓越,也應(yīng)實(shí)現(xiàn)倫理價(jià)值層面的無(wú)暇。[65]歐盟發(fā)布的《關(guān)于可信賴(lài)人工智能的倫理準(zhǔn)則》[66]規(guī)定了透明性、非歧視性等一系列價(jià)值原則,這正視了算法作為價(jià)值表達(dá)載體的角色,并試圖對(duì)其進(jìn)行倫理層面的規(guī)范。在這一語(yǔ)境下,算法向善、制作道德的人工智能體、人工智能造福社會(huì)等議題正成為引導(dǎo)算法價(jià)值表達(dá)的新方向。
將算法視作價(jià)值表達(dá)并對(duì)其進(jìn)行規(guī)范的愿景面臨若干現(xiàn)實(shí)難題。從算法倫理體系來(lái)看,一系列價(jià)值原則(慈善性、非惡意性、自主性、公正性和可解釋性)彼此糾纏,對(duì)于多重利益相關(guān)者的權(quán)衡更使各倫理原則之間的沖突難以調(diào)和。[66]從算法設(shè)計(jì)實(shí)踐來(lái)看,算法系統(tǒng)的道德責(zé)任較為分散,工程師和決策者均無(wú)法獨(dú)自為算法的道德?tīng)顩r負(fù)責(zé),[67]特別是當(dāng)前工程師普遍缺乏倫理意識(shí)。[68]從監(jiān)督機(jī)制來(lái)看,人工智能是參數(shù)復(fù)雜的“黑箱”,隨新的數(shù)據(jù)注入一直處在持續(xù)動(dòng)態(tài)發(fā)展中,即使對(duì)于專(zhuān)家也無(wú)法做到透明,這使其無(wú)法充分地被外界監(jiān)管。
結(jié)語(yǔ)
本研究采用話(huà)語(yǔ)研究視角,分析近五年來(lái)學(xué)術(shù)界圍繞算法形成的多種話(huà)語(yǔ)。在綜述既有的智能媒體研究的基礎(chǔ)上,本研究以一種較為中立的立場(chǎng)歸納出算法是工具、算法是規(guī)則、算法是權(quán)力等六種話(huà)語(yǔ),并對(duì)不同話(huà)語(yǔ)的語(yǔ)境、邏輯進(jìn)行詮釋。
雖然算法在當(dāng)代社會(huì)中的滲透已經(jīng)十分深入、廣泛,但人類(lèi)社會(huì)對(duì)算法的理解、適應(yīng)尚處于起步階段,這意味著新聞傳播學(xué)視野下的算法意涵及學(xué)術(shù)實(shí)踐正處在不斷發(fā)展之中。學(xué)術(shù)界在探究算法的運(yùn)作、影響及規(guī)制等問(wèn)題之余,也要時(shí)刻以更宏觀(guān)的視角反思算法研究背后所依托的認(rèn)識(shí)論基礎(chǔ),通過(guò)觀(guān)察話(huà)語(yǔ)之間的承襲、發(fā)展、對(duì)抗關(guān)系,獲得對(duì)算法更辯證的理解。需要指出的是,這些圍繞算法形成的話(huà)語(yǔ)并無(wú)對(duì)錯(cuò)之分,只是學(xué)者們多元的研究語(yǔ)境在算法理解上產(chǎn)生的差異化投射,它們共同構(gòu)成了新聞傳播學(xué)視野中復(fù)雜、立體、動(dòng)態(tài)的算法。
參考文獻(xiàn):
[1] 劉海龍. 大眾傳播理論:范式與流派[M]. 北京: 中國(guó)人民大學(xué)出版社,2008:4-5.
[2] Milosavljevi M, Vobi I. Our task is to demystify fears: Analysing newsroom management of automation in journalism[J]. Journalism, 2019, 22(9): 2203-2221.
[3] Bodó B. Selling News to Audiences-A Qualitative Inquiry into the Emerging Logics of Algorithmic News Personalization in European Quality News Media[J]. Digital Journalism, 2019,7(8): 1054-1075.
[4] Shmargad Y, Klar S. Sorting the News: How Ranking by Popularity Polarizes Our Politics[J]. Political Communication, 2020, 37(3): 423-446.
[5] 楊洸,佘佳玲. 新聞算法推薦的信息可見(jiàn)性、用戶(hù)主動(dòng)性與信息繭房效應(yīng):算法與用戶(hù)互動(dòng)的視角[J]. 新聞大學(xué),2020(2):102-118,123.
[6] 陳衛(wèi)星. 智能傳播的認(rèn)識(shí)論挑戰(zhàn)[J]. 國(guó)際新聞界,2021(9):6-24.
[7] 郭小平,潘陳青. 智能傳播的“新社會(huì)能見(jiàn)度”控制:要素、機(jī)制及其風(fēng)險(xiǎn)[J]. 現(xiàn)代傳播,2021(9):1-6.
[8] Caplan R, Boyd D. Isomorphism through algorithms: Institutional dependencies in the case of Facebook[EB/OL].[2022-04-01]. Big Data & Society, https://doi.org/10.1177/2053951718757253.
[9] Thorson K, Cotter K, Medeiros M, et al. Algorithmic inference, political interest, and exposure to news and politics on Facebook[J]. Information, Communication & Society,2021, 24(2): 183-200.
[10] Schj?tt Hansen A,Hartley·J.M. Designing What's News: An Ethnography of a Personalization Algorithm and the Data-Driven (Re)Assembling of the News[EB/OL].[2022-04-01]. Digital Journalism, https://doi.org/10.1080/21670811.2021.1988861.
[11] Lamot K. What the Metrics Say. The Softening of News on the Facebook Pages of Mainstream Media Outlets[EB/OL].[2022-04-01]. Digital Journalism, https://doi.org/10.1080/21670811.2021.1974917.
[12] Stenbom A, Wiggberg M, Norlund T. Exploring Communicative AI: Reflections from a Swedish Newsroom[EB/OL].[2022-04-01]. Digital Journalism, https://doi.org/10.1080/21670811.2021.2007781.
[13] Billard·T.J. Deciding what's (sharable) news: Social movement organizations as curating actors in the political information system[EB/OL].[2022-04-01]. Communication Monographs,https://doi.org/10.1080/03637751.2021.1999998.
[14] Ramizo G. Platform playbook: a typology of consumer strategies against algorithmic control in digital platforms [EB/OL].[2022-04-01]. Information, Communication & Society, https://doi.org/10.1080/1369118X.2021.1897151.
[15] Slechten L, Courtois C, Coenen L, et al. Adapting the Selective Exposure Perspective to Algorithmically Governed Platforms: The Case of Google Search[EB/OL].[2022-04-01]. Communication Research, https://doi.org/10.1177/00936502211012154.
[16] MacDonald·T.W. "How it actually works": Algorithmic lore videos as market devices[EB/OL].[2022-04-01]. New Media & Society, https://doi.org/10.1177/14614448211021404.
[17] Jakesch M, French M, Ma X, et al. AI-Mediated Communication: How the Perception that Profile Text was Written by AI Affects Trustworthiness[C].Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, 2019: 1-13.
[18] Masso A, Kasapoglu T. Understanding power positions in a new digital landscape: perceptions of Syrian refugees and data experts on relocation algorithm[J]. Information, Communication & Society,2020, 23(8): 1203-1219.
[19] 彭蘭. 生存、認(rèn)知、關(guān)系:算法將如何改變我們[J]. 新聞界,2021(3):45-53.
[20] 陳昌鳳,霍婕. 權(quán)力遷移與關(guān)系重構(gòu):新聞媒體與社交平臺(tái)的合作轉(zhuǎn)型[J]. 新聞與寫(xiě)作,2018(4):5.
[21] 仇筠茜,陳昌鳳. 黑箱:人工智能技術(shù)與新聞生產(chǎn)格局嬗變[J]. 新聞界,2018(1):28-34.
[22] 張志安,周嘉琳. 基于算法正當(dāng)性的話(huà)語(yǔ)建構(gòu)與傳播權(quán)力重構(gòu)研究[J]. 現(xiàn)代傳播,2019(1):30-36,41.
[23] Trielli D, Diakopoulos N. Partisan search behavior and Google results in the 2018 US midterm elections[J]. Information, Communication & Society, 2020,25(1): 145-161.
[24] 聶靜虹,宋甲子. 泛化與偏見(jiàn):算法推薦與健康知識(shí)環(huán)境的構(gòu)建研究——以今日頭條為例[J]. 新聞與傳播研究,2020(9):23-42,126.
[25] 楊洸,佘佳玲. 算法新聞?dòng)脩?hù)的數(shù)字鴻溝:表現(xiàn)及影響[J]. 現(xiàn)代傳播,2020(4):145-154.
[26] Zuboff S. Big other: Surveillance Capitalism and the Prospects of an Information Civilization[J]. Journal of Information Technology, 2015, 30(1): 75-89.
[27] 尚帥. 傳播的興趣偏向和渾然不覺(jué)的符號(hào)暴力——基于《今日頭條》的算法控制研究[J]. 現(xiàn)代傳播,2018(10):58-62.
[28] J?rgensen·R.F. Data and rights in the digital welfare state: the case of Denmark[EB/OL].[2022-04-01]. Information, Communication & Society,https://doi.org/10.1080/1369118X.2021.1934069.
[29] Madianou M. Nonhuman humanitarianism: when "AI for good" can be harmful[J]. Information, Communication & Society, 2021, 24(6): 850-868.
[30] Kazansky B, Milan S. "Bodies not templates": Contesting dominant algorithmic imaginaries[J]. New Media & Society,2021, 23(2): 363-381.
[31] Velkova J, Kaun A. Algorithmic resistance: media practices and the politics of repair[J]. Information, Communication & Society, 2021, 24(4): 523-540.
[32] Cwerman-Thibault H, Sahel·J.A, Corral-Debrinski M. Mitochondrial medicine: to a new era of gene therapy for mitochondrial DNA mutations[J]. Journal of Inherited Metabolic Disease,2011, 34(2): 327-344.
[33] 毛湛文,孫曌聞. 從“算法神話(huà)”到“算法調(diào)節(jié)”:新聞透明性原則在算法分發(fā)平臺(tái)的實(shí)踐限度研究[J]. 國(guó)際新聞界,2020(7):6-25.
[34] 吳璟薇,郝潔. 智能新聞生產(chǎn):媒介網(wǎng)絡(luò)、雙重的人及關(guān)系主體的重建[J]. 國(guó)際新聞界,2021(2):78-97.
[35] 徐笛. 算法實(shí)踐中的多義與轉(zhuǎn)義:以新聞推薦算法為例[J]. 新聞大學(xué),2019(12):39-49,120.
[36] 甘蒞豪,劉欣雨. 維基百科機(jī)器人群體性編纂過(guò)程中的知識(shí)與話(huà)語(yǔ)權(quán)研究[J]. 新聞大學(xué),2021(10):76-93,120.
[37] Humphry J, Chesher C. Preparing for smart voice assistants: Cultural histories and media innovations[J]. New Media & Society, 2020,23(7): 1971-1988.
[38] Küster D, Swiderska A, Gunkel D. I saw it on YouTube! How online videos shape perceptions of mind, morality, and fears about robots[J]. New Media & Society, 2020,23(11): 3312-3331.
[39] 師文,陳昌鳳. 分布與互動(dòng)模式:社交機(jī)器人操縱Twitter上的中國(guó)議題研究[J]. 國(guó)際新聞界,2020(5):61-80.
[40] Guzman·A.L, Lewis·S.C. Artificial intelligence and communication: A Human-Machine Communication research agenda[J]. New Media & Society, 2020, 22(1): 70-86.
[41] Spence·P.R. Searching for questions, original thoughts, or advancing theory: Human-machine communication[J]. Elsevier, 2019(90): 285-287.
[42] Coanda I, Auper S. Post-human encounters: Humanising the technological Other in videogames[J]. New Media & Society, 2020, 23(5): 1236-1256.
[43] Wojcieszak M, Thakur A, Ferreira Gon?alves·J.F, et al. Can AI Enhance People's Support for Online Moderation and Their Openness to Dissimilar Political Views?[J]. Journal of Computer-Mediated Communication, 2021, 26(4): 223-243.
[44] Gon?alves J,Weber I,Masullo·G.M,et al. Common sense or censorship: How algorithmic moderators and message type influence perceptions of online content deletion[EB/OL].[2022-04-01]. New Media & Society, https://doi.org/10.1177/14614448211032310.
[45] Liu B. In AI We Trust? Effects of Agency Locus and Transparency on Uncertainty Reduction in Human-AI Interaction[J]. Journal of Computer-Mediated Communication,2021, 26(6): 384-402.
[46] 宣長(zhǎng)春,顏遠(yuǎn)紳,朱怡佳. 寒冷的時(shí)候更愛(ài)你:消費(fèi)者對(duì)擬人化產(chǎn)品態(tài)度的實(shí)證研究[J]. 新聞大學(xué),2021(11):92-104,124-125.
[47] 韓秀,張洪忠,何康,等. 媒介依賴(lài)的遮掩效應(yīng):用戶(hù)與社交機(jī)器人的準(zhǔn)社會(huì)交往程度越高越感到孤獨(dú)嗎?[J]. 國(guó)際新聞界,2021(9):25-48.
[48] Lou C,Kang H, Tse·C.H. Bots vs humans: how schema congruity, contingency-based interactivity, and sympathy influence consumer perceptions and patronage intentions[EB/OL].[2022-04-01]. International Journal of Advertising, https://doi.org/10.1080/02650487.2021.1951510.
[49] Dogruel L, Masur P, Joeckel S. Development and validation of an algorithm literacy scale for Internet users[EB/OL].[2022-04-01]. Communication Methods and Measures, https://doi.org/10.1080/19312458.2021.1968361.
[50] Gran A-B, Booth P, Bucher T. To be or not to be algorithm aware: a question of a new digital divide?[J]. Information, Communication & Society, 2021, 24(12): 1779-1796.
[51] Fouquaert T, Mechant P. Making curation algorithms apparent: a case study of "Instawareness" as a means to heighten awareness and understanding of Instagram's algorithm[EB/OL].[2022-04-01]. Information, Communication & Society,https://doi.org/10.1080/1369118X.2021.1883707.
[52] Büchi M, Fosch-Villaronga E, Lutz C, et al. Making sense of algorithmic profiling: user perceptions on Facebook[EB/OL].[2022-04-01]. Information, Communication & Society, https://doi.org/10.1080/1369118X.2021.1989011.
[53] Joris G, Grove·F.D, Van Damme K. et al. Appreciating News Algorithms: Examining Audiences' Perceptions to Different News Selection Mechanisms[J]. Digital Journalism, 2021, 9(5): 589-618.
[54] Bishop S. Managing visibility on YouTube through algorithmic gossip[J]. New Media & Society, 2019(21): 2589-2606.
[55] Pedersen E. "My Videos are at the Mercy of the YouTube Algorithm": How Content Creators Craft Algorithmic Personas and Perceive the Algorithm that Dictates their Work[D]. EECS Department, University of California, Berkeley, 2019.
[56] Kaun A. Suing the algorithm: the mundanization of automated decision-making in public services through litigation[EB/OL].[2022-04-01]. Information, Communication & Society, https://doi.org/10.1080/1369118X.2021.192482.
[57] Bucher T. The algorithmic imaginary: exploring the ordinary affects of Facebook algorithms[J]. Information, Communication & Society,2017, 20(1): 30-44.
[58] Gelman·S.A, Legare·C.H. Concepts and Folk Theories[J]. Annual Review of Anthropology, 2011, 40(1): 379-398.
[59] Ytre-Arne B, Moe H. Folk theories of algorithms: Understanding digital irritation[J]. Media, Culture & Society, 2021, 43(5): 807-824.
[60] Trammell A, Cullen·A.L. A cultural approach to algorithmic bias in games[J]. New Media & Society, 2020, 23(1): 159-174.
[61] Bountouridis D, Makhortykh M, Sullivan E. et al. Annotating Credibility: Identifying and Mitigating Bias in Credibility Datasets[EB/OL].[2022-04-01]. ROME 2019-Workshop on Reducing Online Misinformation Exposure, https://rome2019.github.io/papers/Bountouridis_etal_ROME2019.pdf.
[62] Obermeyer Z, Powers B, Vogeli C, et al. Dissecting racial bias in an algorithm used to manage the health of populations[J]. Science, 2019, 366(64): 447-453.
[63] 許麗穎,喻豐. 影響機(jī)器人接受度的因素——道德的作用[C]//中國(guó)心理學(xué)會(huì). 第二十二屆全國(guó)心理學(xué)學(xué)術(shù)會(huì)議摘要集. 2019:2180-2181.
[64] 白紅義,李拓. 算法的“迷思”:基于新聞分發(fā)平臺(tái)“今日頭條”的元新聞話(huà)語(yǔ)研究[J]. 新聞大學(xué),2019(1):30-44,117.
[65] 陳昌鳳,虞鑫. 智能時(shí)代的信息價(jià)值觀(guān)研究:技術(shù)屬性、媒介語(yǔ)境與價(jià)值范疇[J]. 編輯之友,2019(6):5-12.
[66] Hermann E. Artificial intelligence and mass personalization of communication content—An ethical and literacy perspective[EB/OL].[2022-04-01]. New Media & Society,https://doi.org/10.1177/14614448211022702.
[67] Orr W, Davis·J.L. Attributions of ethical responsibility by Artificial Intelligence practitioners[J]. Information, Communication & Society, 2020, 23(5): 719-735.
[68] 嚴(yán)三九,袁帆. 局內(nèi)的外人:新聞傳播領(lǐng)域算法工程師的倫理責(zé)任考察[J]. 現(xiàn)代傳播,2019(9): 1-5,12.