● 班建武
學(xué)生品德評價是德育工作的重點(diǎn),也是難點(diǎn)。長期以來,不管在理論還是在實(shí)踐領(lǐng)域,人們都高度關(guān)注品德評價的科學(xué)性和有效性問題,并對此開展了諸多的理論研究和實(shí)踐探索。這些研究和探索在一定程度上推進(jìn)了品德評價的發(fā)展和進(jìn)步??陀^地講,不管在理論層面還是在實(shí)踐層面,學(xué)生品德評價的科學(xué)性和操作性等方面均明顯弱于其他教育教學(xué)的評價。當(dāng)前,人工智能等新興技術(shù)的不斷發(fā)展,為品德評價科學(xué)性、操作性的提高提供了前所未有的技術(shù)支持。一些地方和學(xué)校也開始嘗試采用人工智能技術(shù)來增強(qiáng)其品德評價的可靠性。但是,作為一項(xiàng)新興的品德評價工具,人工智能與品德評價相結(jié)合的技術(shù)優(yōu)勢和其中可能存在的倫理風(fēng)險(xiǎn)并未得到充分的學(xué)理性論證。如果缺乏必要的學(xué)理性分析,人工智能在品德評價中的倉促應(yīng)用就有可能引發(fā)極大的社會爭議,并有可能造成諸多負(fù)面的教育后果。因此,在積極探索人工智能對于提升品德評價的技術(shù)優(yōu)勢的同時,我們也要深入研究其可能帶來的倫理風(fēng)險(xiǎn)。這樣才能更好地發(fā)揮人工智能的技術(shù)優(yōu)勢,提升品德評價的實(shí)效性。
品德由于其自身的特殊性,帶來了品德評價的困難。這些困難一方面來源于現(xiàn)有評價技術(shù)的限制,另一方面則源于品德自身的內(nèi)在倫理張力。
品德評價要想有效,必須確保其所采集到的品德信息的客觀真實(shí)性。而品德與人的其他素養(yǎng)不一樣的地方就在于,它具有鮮明的情境性、內(nèi)隱性和發(fā)展性等特征,這就決定了品德信息的采集會遭遇到客觀性和真實(shí)性的現(xiàn)實(shí)挑戰(zhàn)。
1.品德表現(xiàn)具有情境性。所謂品德表現(xiàn)的情境性,主要指的是在不同情境空間中,個體在同一德目上的表現(xiàn)會有很大的不同。關(guān)于這一點(diǎn),20 世紀(jì)美國心理學(xué)家哈桑和梅所開展的“誠實(shí)情境測驗(yàn)”結(jié)果表明:一個人是否誠信,主要取決于其所處的具體情境。在一個情境中表現(xiàn)為誠實(shí)的個體,有可能在另外一個情境中就表現(xiàn)為不誠實(shí)[1]。由此可見,品德的表現(xiàn)與特定的情境有著非常密切的關(guān)系?,F(xiàn)有學(xué)生品德評價中的表現(xiàn)數(shù)據(jù),往往只能夠采集到特定情境下的數(shù)據(jù),而不能全面覆蓋學(xué)生在多個情境中的表現(xiàn)情況。這就使得品德評價中所采集的數(shù)據(jù),特別容易受到情境的干擾而失真。
2.品德樣態(tài)具有穩(wěn)定性。如果說品德表現(xiàn)的情境性更多地是從空間維度來審視品德的特點(diǎn),那么穩(wěn)定性則主要展示的就是品德在時間上的特殊性。品德作為個體人格結(jié)構(gòu)中具有穩(wěn)定傾向的道德品質(zhì),它不是個體道德生活中的偶然性表現(xiàn),而是一種一以貫之的人格特征。因此,個體在特定時間中的偶然性表現(xiàn)不能夠客觀反映其真實(shí)道德狀況。要想對個體的品德狀況有客觀地把握,就必須在一個相對長時段的范圍內(nèi)把握其中相對穩(wěn)定的道德特質(zhì)。這就要求品德評價不能就某一個具體時間所采集到的數(shù)據(jù)信息來作為評價其道德狀況的真實(shí)數(shù)據(jù),而是需要從一個長時段的區(qū)間來采集信息。而當(dāng)前的品德評價更多的是以某一具體時間節(jié)點(diǎn)獲取的數(shù)據(jù)來評價學(xué)生,這些基于特定時間節(jié)點(diǎn)獲取的數(shù)據(jù)并不能保證評價可以真實(shí)反映個體品德的穩(wěn)定特征。
3.品德存在具有內(nèi)隱性。品德固然表現(xiàn)為一個人外在可見的言談舉止,但是,品德這一可見的言談舉止并不必然代表一個人真實(shí)道德水平的客觀表現(xiàn)。在現(xiàn)實(shí)中,個體的品德狀況極有可能出現(xiàn)“知行脫節(jié)”或“言行不一”的情況:一個人外在的道德表現(xiàn)與其內(nèi)心真實(shí)的道德狀況并不一定一致,其外在的符合道德的表現(xiàn)也許更多的是一種道德表演。這實(shí)際上表明,一個人的品德具有非常明顯的內(nèi)隱性,其外在行為有可能符合其內(nèi)心真實(shí)道德,也有可能不符合其真實(shí)道德。同時,品德存在的內(nèi)隱性還意味著個體的品德具有“潛在”的特征,“所謂的潛在,就是尚不具備現(xiàn)實(shí)性,它也是內(nèi)在地處在實(shí)現(xiàn)過程之中的”。[2]在這種情況下,現(xiàn)有的品德評價更多的只是采集到其外在的道德表現(xiàn),而對于其真實(shí)的、潛在的內(nèi)在道德信息卻很難獲得。
4.品德評價的社會稱許性。社會稱許性(Social Desirability,簡稱SD)主要是指個體在對自我進(jìn)行評價時,通常會以社會認(rèn)可的方式做出評價反應(yīng)的一種偏向或心向,從而使自己看起來更符合社會的期待。這一情況在品德評價中更容易出現(xiàn)。被評價者往往為了維護(hù)自我的社會形象、獲得社會認(rèn)可,而在品德評價中表現(xiàn)出明顯的社會稱許性。社會稱許性在品德評價中的存在,必然會極大地干擾評價真實(shí)信息的獲得。而現(xiàn)有的品德評價更多地是采用自我報(bào)告的方式進(jìn)行,因而很難避免社會稱許性的出現(xiàn)。
5.品德評價的主觀性。品德評價數(shù)據(jù)目前基本上是靠人來采集。雖然參與品德評價數(shù)據(jù)采集的每一個個體都會接受專業(yè)培訓(xùn),以避免個人主觀性的影響。但是,作為活生生的人,數(shù)據(jù)采集者對于品德的理解往往會受到其閱歷、偏好、性別、文化等因素的影響。因而,在具體的品德評價過程中,數(shù)據(jù)采集者實(shí)際關(guān)注的重點(diǎn)也會有所不同。在這種情況下,雖然每個人都是按照統(tǒng)一的標(biāo)準(zhǔn)和流程來采集相關(guān)評價信息,但是,其中的個體差異性是很難完全避免的。這同樣會影響到品德數(shù)據(jù)采集的客觀性。
品德評價除了會遭遇以上技術(shù)難題外,還會遭遇到其他各教育評價所不會遭遇的倫理張力。總體而言,這些倫理張力主要表現(xiàn)為以下幾個方面。
1.關(guān)于“好品德”的倫理爭議。品德評價毫無疑問必須建立在具有共識性的科學(xué)評價標(biāo)準(zhǔn)之上。這實(shí)際上就需要回答什么樣的品德才是“好”的品德。但是,在這一關(guān)鍵問題上,倫理學(xué)的看法并不一致。從義務(wù)論的倫理學(xué)來看,“好”品德的標(biāo)準(zhǔn)在于一個人的善的動機(jī),而不是其外在行為和結(jié)果??档戮褪沁@方面的代表人物。而效益論倫理學(xué)則認(rèn)為,“好”的品德主要指的是那些能夠?yàn)榻^大多數(shù)人帶來幸福的行為,即看重的是行為的后果,而不是個體行為的動機(jī)。邊沁、密爾等人則是這一理論的主要倡導(dǎo)者。在德性論倫理看來,“好”品德主要是體現(xiàn)為個體的內(nèi)在品質(zhì),而不是從個體的動機(jī)和行為后果上去評價。這方面的代表人物是當(dāng)代倫理學(xué)家麥金太爾。由此可見,從不同的倫理學(xué)出發(fā),人們會構(gòu)建出不同的品德評價標(biāo)準(zhǔn)。品德評價標(biāo)準(zhǔn)的這種多樣性,會給品德評價標(biāo)準(zhǔn)的構(gòu)建帶來很大的倫理挑戰(zhàn)。
2.品德評價權(quán)重分配的模糊性。關(guān)于品德的構(gòu)成要素,學(xué)界有“三要素”“四要素”“五要素”等不同認(rèn)識。但不管是何種認(rèn)識,都承認(rèn)品德至少包括認(rèn)知、情感、行為三個基本要素??傮w而言,當(dāng)前的品德評價,基本上都圍繞品德的認(rèn)知、情感、行為三個基本要素進(jìn)行。從現(xiàn)有的評價技術(shù)來看,圍繞這三個要素的單項(xiàng)評價都分別有與之相適應(yīng)的評價手段和方法。比如,測查道德認(rèn)知可以采取柯爾伯格的道德兩難測試法進(jìn)行。但是,人們很難確定各要素在評價結(jié)果中的權(quán)重,因而難以形成對一個人品德狀況的總體評價,即很難將個體在道德認(rèn)知、情感、行為三個要素上的具體得分情況進(jìn)行一種權(quán)重的分配,從而難以合成一個人合理的品德總分。品德評價權(quán)重分配的這種倫理上的難題,也客觀上導(dǎo)致品德評價的真實(shí)性和操作性不高。
3.品德評價結(jié)果解讀的文化性。即使品德評價完成了,其評價結(jié)果的解讀同樣會遭遇倫理方面的挑戰(zhàn)。特定文化對特定品德的要求,在很大程度上存在明顯的地方或者空間上的顯著差異。在某一文化中被認(rèn)可和接受的品德,可能在其他文化中則被認(rèn)為是非道德甚至是反道德的。比如,東西方文化就對集體主義、個人主義的認(rèn)識存在很大的文化分歧,中國社會內(nèi)部同樣存在著城鄉(xiāng)、民族、宗教、性別等文化差異性。因此,品德評價結(jié)果的解讀必須充分考慮這些因素的影響,否則極有可能導(dǎo)致品德評價出現(xiàn)公平倫理問題。
由此可見,品德評價與其他各教育評價相比有著非常突出的獨(dú)特性。這一獨(dú)特性就使得一般的評價方式和方法很難解決品德評價中的技術(shù)難題和倫理張力。這里的技術(shù)難題,突出表現(xiàn)為如何確保品德評價所獲取數(shù)據(jù)之“真”;而倫理張力則是體現(xiàn)在如何充分保障品德評價之“善”。
品德評價中的“真”與“善”難題,顯然僅靠現(xiàn)有的評價技術(shù)是很難真正解決的。人工智能的出現(xiàn)則為這些問題的解決提供了一個可能的技術(shù)機(jī)遇。
如前文所述,品德自身的情境性、內(nèi)隱性等特征使得品德評價在評價數(shù)據(jù)采集方面遇到的最大技術(shù)挑戰(zhàn),就在于其所采集的數(shù)據(jù)特別容易在真實(shí)性方面存在問題。在評價數(shù)據(jù)真實(shí)性獲取方面,人工智能作為一種依據(jù)數(shù)據(jù)算法邏輯構(gòu)建起來的技術(shù)形態(tài),有著非常重要的技術(shù)優(yōu)勢。
1.人工智能作為“第三持存”,可以較好地實(shí)現(xiàn)評價的連續(xù)性。第三持存又被形容為“技術(shù)的痕跡(trace)”,是斯蒂格勒在胡塞爾的第一持存(感知的心理持存)、第二持存(記憶的心理持存)的基礎(chǔ)上提出的,意指可以在主體之外使思想和行為發(fā)生時的蹤跡得以保存。它使記憶及知識可以通過外置化的技術(shù)方式存在,從而可以有效地避免第一、第二持存所不可避免的遺忘問題。顯然,人工智能的記憶具有明顯的“第三持存”的特性,它可以將各種記憶固化為可以檢索的數(shù)據(jù)存儲于設(shè)備之上,因而可以確保品德評價信息的獲取是一個連續(xù)的而并非斷點(diǎn)式的過程。在這方面,一些研究者就采用深度知識追蹤模型(Deep Knowledge Tracing)、動態(tài)鍵值對記憶網(wǎng)絡(luò)模型(Dynamic Key-Value Memory Networks for Knowledge Tracing)、基于圖的知識追蹤模型(Graph-based Knowledge Tracing)等多種深度學(xué)習(xí)模型,對個體過往的學(xué)習(xí)歷史軌跡進(jìn)行研究,并據(jù)此預(yù)策其在后續(xù)練習(xí)中的表現(xiàn)[3]。這些技術(shù)的使用表明,人工智能是可以長時段地獲取個體發(fā)展的有效信息,以進(jìn)行歷時性的分析和評價。這毫無疑問對于克服當(dāng)前品德評價很難長時段獲取個體品德信息的局限,有著非常重要的技術(shù)優(yōu)勢。通過人工智能的應(yīng)用,人們可以較長時段地對一個人的品德情況進(jìn)行連續(xù)性的信息采集,從而相對準(zhǔn)確地從中提煉出具有一貫性的穩(wěn)定品質(zhì),并將之作為品德評價的對象。
2.人工智能的“全息攝入”,可以確保品德評價的全景監(jiān)測。品德表現(xiàn)的情境性表明,人們要想獲得關(guān)于個體的真實(shí)品德信息,就需要在評價的時候覆蓋其主要生活空間,這樣才能確保數(shù)據(jù)的全面性。長期以來,品德評價數(shù)據(jù)的采集基本上都是以學(xué)生在校的表現(xiàn)為信息來源點(diǎn),這些數(shù)據(jù)很難涵蓋學(xué)生在其他生活空間中的品德狀況。這樣一種定點(diǎn)式的評價必然導(dǎo)致相關(guān)品德信息采集的片面性,從而不能夠很好地反映一個人的真實(shí)道德狀況。而人工智能是可以全面覆蓋個體生活的方方面面,具有“全息攝入”的特點(diǎn):人工智能憑借大數(shù)據(jù)和算法的支撐,依靠遍布各個角度的攝像頭,可以輕而易舉地獲取有關(guān)學(xué)生思想動態(tài)、真實(shí)想法、道德發(fā)展、心理特征、網(wǎng)上言論等結(jié)構(gòu)化和非結(jié)構(gòu)化數(shù)據(jù),有效地將過去因條件不充分而無法覆蓋的領(lǐng)域范圍都囊括進(jìn)來[4]。總之,人工智能可以全方位地將個體的所有信息(含品德表現(xiàn)的信息)全部采集,最大程度地反映一個人在不同情境中的真實(shí)表現(xiàn),從而有助于人們對其品德狀況做出更客觀的評價。
3.人工智能的“數(shù)字記憶”,可以有效避免評價者主觀偏好的影響。主觀偏好是影響評價科學(xué)性的重要因素。人的主觀偏好往往是與其記憶的選擇性和經(jīng)驗(yàn)性有著很大的關(guān)系。但是,人工智能是基于算法的物理運(yùn)動,其記憶是一種“數(shù)字記憶”,而并非“生物記憶”。美國學(xué)者戈登·貝爾(Gordon Bell)和吉姆·戈梅爾(Jim Gemmell)指出了生物記憶和數(shù)字記憶的明顯分殊:前者是主觀的、帶有感情色彩的,具備主觀寫意、自我過濾的特質(zhì);后者是客觀的、不摻雜假象的,具備高度的精準(zhǔn)性[5]。人工智能的數(shù)字記憶不會受其過往經(jīng)驗(yàn)的影響,也不會受其主觀偏好的作用,因而具有相對客觀性和真實(shí)性。通過人工智能所采集到的個體的品德信息,是以一種“數(shù)字記憶”的方式存在于人工智能中。這無疑有助于評價數(shù)據(jù)的真實(shí)性保留。
4.人工智能的“日常性存在”,可以最大程度地減少社會稱許性對品德評價的影響。人工智能可以存在于人們衣食住行的方方面面,與個體的生活完全融為一體。由于通過人工智能所進(jìn)行的品德評價具有突出的日常性特點(diǎn),可以有效地減少在特定時間、特定空間所專門進(jìn)行的品德評價的正式性。它更多地是采用一種維度更多、頻度更密、粒度更細(xì)的信息采集方式,這種采集方式還具有實(shí)時性、連續(xù)性和自然性。這些海量的過程性信息是在無人參與的情況下,通過智能設(shè)備自動采集的,不會對學(xué)生的行為造成人為干擾。這保證了評價不會因?yàn)閷W(xué)生的抗拒、迎合或應(yīng)付心理而失真[6]。這就使得基于人工智能的品德評價的發(fā)生,在很多情況下是個體所沒有意識到的。因而,所謂的社會稱許性在個體無意識的狀態(tài)下就幾乎不會發(fā)生。這無疑可以大大提升數(shù)據(jù)采集的真實(shí)性。
此外,當(dāng)前人工智能集大成者——ChatGPT 的出現(xiàn),為交互性品德評價的大規(guī)模應(yīng)用提供了技術(shù)可能。傳統(tǒng)的交互性評價由于需要教師與學(xué)生進(jìn)行“一對一”的對話來實(shí)現(xiàn)。其優(yōu)點(diǎn)在于它可以通過與個別學(xué)生深度交流來獲得有關(guān)學(xué)生品德的深層次信息,從而可以提升評價的準(zhǔn)確性和針對性。但是,由于這樣一種交互性評價有耗時長、不同教師主體存在主觀偏差等缺陷,很難普適化為一種日常的品德評價方法。而ChatGPT 作為一種高度智能化的人機(jī)對話程序,可以同時面對規(guī)模龐大的學(xué)生群體進(jìn)行個別化的深度交流,從而可以在很大程度上克服現(xiàn)實(shí)中教師與學(xué)生“一對一”、面對面交流的局限性。
品德評價歸根結(jié)底,是為了進(jìn)一步優(yōu)化學(xué)校德育工作,提升學(xué)生的思想道德水平。長期以來,品德評價最大的弊病之一就在于人們認(rèn)為品德評價不準(zhǔn),因而當(dāng)前的品德評價很難發(fā)揮其學(xué)校教育改進(jìn)和學(xué)生品德發(fā)展的促進(jìn)功能。人工智能的出現(xiàn),毫無疑問可以增強(qiáng)品德評價的實(shí)效性,使其可以更好地發(fā)揮育人功能。
1.人工智能可以確保評價結(jié)果的實(shí)時反饋,增強(qiáng)其教育改進(jìn)的時效性和針對性。一旦我們將德育評價的指標(biāo)和要求以算法的形式轉(zhuǎn)變?yōu)槿斯ぶ悄?,那么,這個品德評價數(shù)據(jù)的采集、處理和分析將會實(shí)現(xiàn)實(shí)時化的呈現(xiàn)方式,這必將大大提高德育評價對于德育改進(jìn)的效率。學(xué)??梢愿鶕?jù)數(shù)據(jù)終端及時了解學(xué)生品德發(fā)展的基本情況以及出現(xiàn)的問題,做出及時的回應(yīng)。這會有效地避免評價結(jié)果反饋的遲滯性所引發(fā)的各種可能嚴(yán)重后果。也就是說,基于人工智能的品德評價,在很大程度上可以成為整個學(xué)校德育運(yùn)行的質(zhì)量監(jiān)測系統(tǒng),及時反饋教育中的各種現(xiàn)實(shí)問題,從而提高教育的有效性。
2.人工智能可以提升品德評價的循證性,增強(qiáng)其服務(wù)政策制定的科學(xué)性和可靠性。對學(xué)生品德現(xiàn)狀的準(zhǔn)確把握,是相關(guān)德育政策制度的重要依據(jù)。在很大程度上,對學(xué)生品德真實(shí)狀況理解上的任何偏頗,都會帶來德育政策制定的諸多不良實(shí)踐后果?;谌斯ぶ悄艿脑u價,在本質(zhì)上是一種循證(evidencebased)評價。這是一種基于客觀數(shù)據(jù)和方法上的評價,而不是基于個人經(jīng)驗(yàn)和主觀判斷的評價。這樣一種基于人工智能的循證式品德評價,可以最大程度地反映個體品德的真實(shí)情況,從而可以為相關(guān)德育政策的制定提供必要的科學(xué)基礎(chǔ)。
3.人工智能可以促進(jìn)品德評價的精準(zhǔn)性,增強(qiáng)德育指導(dǎo)的針對性和個體性。要想提高德育實(shí)效,就必須做到因材施教。因材施教的前提是對個體品德的獨(dú)特性有準(zhǔn)確的理解。長期以來,德育實(shí)效不高的一個重要原因就在于,德育之于個體的針對性是遠(yuǎn)遠(yuǎn)不夠的。我們在處理學(xué)生德育問題時,往往只是從抽象的道德原則來解決,而沒有充分考慮學(xué)生品德的特殊性對于德育內(nèi)容、方式、方法的特殊性要求。也就是說,現(xiàn)有的德育很難根據(jù)學(xué)生各自的品德特性開展更有針對性的個別教育。而基于人工智能的德育評價,顯然是可以通過技術(shù)的手段精準(zhǔn)地評價個人的品德發(fā)展特點(diǎn),也可以形成具有明顯個體特征的品德評價和分析報(bào)告。這對于德育因材施教的真正落地,有著非常重要的意義。
總而言之,人工智能在品德評價中的應(yīng)用,可以使得品德評價的日?;?、立體化、個別化推進(jìn)更為扎實(shí),品德評價的教育診斷、政策咨詢和個體發(fā)展的作用也因此變得更加實(shí)在。
不可否認(rèn)的是,雖然人工智能從技術(shù)層面為品德評價的有效推進(jìn)提供了前所未有的可能性,但是人工智能本身在品德評價中的應(yīng)用同樣存在著諸多需要我們警惕的倫理風(fēng)險(xiǎn)。其中,最大的風(fēng)險(xiǎn)就來自人工智能基于算法所獲得的“真”與品德評價所內(nèi)含的“善”之間所存在的一定張力。
從前面的分析可以看出,品德評價要想有效,就必須獲取學(xué)生品德發(fā)展?fàn)顩r的真實(shí)數(shù)據(jù)。沒有這些真實(shí)數(shù)據(jù)的獲取,品德評價就失去了其基本科學(xué)性前提。人工智能表面上可以借助深度學(xué)習(xí)的幫助而實(shí)現(xiàn)算法的自動迭代升級,從而可以最大程度地依靠遍布生活各個領(lǐng)域的數(shù)據(jù)采集點(diǎn)獲取相對及時且真實(shí)的學(xué)生品德發(fā)展的信息。值得注意的是,人工智能行動的基本底層邏輯是需要依靠一套算法來予以保證的。也就是說,就目前人工智能的發(fā)展階段而言,它仍然是在人所賦予的算法之下來開展相應(yīng)的活動的,算法背后依然是人的因素在起作用。這就使得基于人所賦予的算法而行動的人工智能,還是未能完全脫離開人的主觀偏好的影響。在這種情況下,其所獲得的信息必然也帶有人的價值烙印。
1.誰的道德算法具有品德評價的合法性
算法是人設(shè)計(jì)并賦予人工智能的。這實(shí)際上意味著,人工智能并不是價值中立的,“它攜帶有他者的意志”[7]。因此,設(shè)計(jì)算法的人的價值立場就會在很大程度上決定人工智能采集信息的價值方向。這里涉及一個重要的倫理問題,即并不是所有的人都可以成為算法的有效供給者。在很大程度上,算法的供給者基本上都是一些“技術(shù)精英”;普羅大眾由于其技術(shù)素養(yǎng)以及技術(shù)話語的缺乏,是很難在人工智能的算法世界里占有一席之地的。也就是說,基于算法的人工智能從其誕生之日起就帶上了一定的道德偏見,是很難周全地反映不同區(qū)域、文化、階層、性別的人的道德生活的。因此,誰有資格成為人工智能算法的供給者,這將是一個涉及道德評價的公平性、正義性的社會問題。
2.何種道德算法具有品德評價的合理性
誠如前文所述,道德本身也是有著不同的“算法”,既有義務(wù)論的,也有功利論的;既有集體主義的,也有個人主義的,等等。每一種不同的道德“算法”背后所折射出的都是人們對“何為善”的不同理解。這些不同的道德“算法”都從不同維度回答了“何為善”“何為好生活”的倫理問題。但是,它們各自也很難單獨(dú)地有效解決人類道德生活的諸多問題,而且它們之間也存在著一定的倫理沖突,因而這需要人們綜合地、批判地、建構(gòu)地來應(yīng)用這些不同的道德“算法”。但遺憾的是,在如何合理地綜合運(yùn)用各種不同道德“算法”這一問題上,人們尚未達(dá)成一致的看法。這就使得哪種道德“算法”可以成為品德評價的主流,也成為一個有待研究的重要倫理問題。
3.何種邊界的數(shù)據(jù)獲取具有品德評價的有效性
提高品德評價的科學(xué)性,當(dāng)然需要盡可能全方位、多角度、長時段地獲取關(guān)于個體品德狀況的諸多數(shù)據(jù)。但是,當(dāng)我們借助人工智能對生活的全面滲透獲取個體的品德信息的時候,不得不考慮一個重大倫理問題:如何確保這樣一種信息的獲取不侵犯個體的隱私權(quán)?也就是說,我們在多大范圍、多大程度上可以借助人工智能來獲取個體的品德發(fā)展信息?這是一個需要謹(jǐn)慎處理的倫理問題。如果信息獲取面太窄、太單一,恐怕不能真實(shí)反映個體的品德狀況,影響品德評價的真實(shí)性。但是,如果為了評價的真實(shí)性而將評價的觸角過多地介入其私生活領(lǐng)域,則會導(dǎo)致侵權(quán)問題。因此,如何平衡好數(shù)據(jù)信息采集的公私邊界,是一個需要處理好的倫理問題。
總體而言,人工智能的運(yùn)轉(zhuǎn)是建立在數(shù)據(jù)的采集和處理的基礎(chǔ)之上的,本質(zhì)上是一種數(shù)據(jù)的邏輯關(guān)系的推演。因而,基于人工智能的品德評價實(shí)質(zhì)上也是一種數(shù)據(jù)的運(yùn)算。但是,這里存在的一個最大問題就在于,人的品德在多大程度上可以用數(shù)據(jù)化的方式來呈現(xiàn)?在很大程度上,數(shù)據(jù)化的評價是很難真正深入教育最本質(zhì)性的東西的,即人的生命存在本身。而人的生命是不可估算、不可估價的[8]。因此,當(dāng)把個體豐富的道德生活簡化為一系列數(shù)據(jù)的時候,這些數(shù)據(jù)與個體真實(shí)的道德恐怕還是有一定差異的。
人工智能在品德評價中的應(yīng)用,毫無疑問可以提高評價的科學(xué)性,增強(qiáng)其對教育改進(jìn)、政策制定、個體發(fā)展等諸多方面的積極作用。但是,人們在主動應(yīng)用品德評價的同時,同樣需要思考這樣一種基于人工智能的品德評價的應(yīng)用倫理邊界。
1.如何處理算法的確定性與品德評價的不確定性之間的關(guān)系
人工智能所賴以生存的算法世界是一個確定性的世界。不管是何種算法,都是以海量的數(shù)據(jù)或信息作為其運(yùn)動的基本前提。這就決定了所謂的“智能”更多地是來源于已有經(jīng)驗(yàn)世界的意義賦予。也就是說,基于人工智能的品德評價基本上只能作用于事先設(shè)計(jì)好或者在已有數(shù)據(jù)和信息世界中存在的問題。一旦在數(shù)據(jù)庫中找不到對應(yīng)的數(shù)據(jù),那么,基于算法的人工智能就很難做出相應(yīng)判斷。而品德評價所面對的個體品德恰恰是一個有著無限可能性的、動態(tài)發(fā)展的意義世界,具有很大的不確定性。這就會導(dǎo)致算法的確定性與品德的不確定性之間出現(xiàn)諸多張力。如果只追求算法的確定性而忽視了品德的不確定性,就會在很大程度導(dǎo)致技術(shù)對人的僭越,把人的豐富性降格為一系列數(shù)據(jù)符號。因此,人們在面對基于人工智能所獲取的評價數(shù)據(jù)的時候,恐怕需要做必要的倫理反思和修正,為人的豐富性留下必要的可能空間。
2.如何處理數(shù)據(jù)采集的真實(shí)性和評價對象的知情權(quán)之間的關(guān)系
人工智能下的品德評價之所以具有較好的科學(xué)性,歸根結(jié)底是因?yàn)槠渌@取的品德信息的真實(shí)性。而要確保信息的真實(shí)性,就要盡可能減少品德評價的重要難點(diǎn)——社會稱許性的影響。為此,人工智能可以借助其在學(xué)生品德生活中的全方位滲透,讓學(xué)生在無意識狀態(tài)接受相應(yīng)的品德評價,從而減少其社會稱許性的影響。但是,這樣一種在技術(shù)上可行的做法,從倫理的角度來看,有兩個問題是需要我們高度關(guān)注的:一是這樣一種匿名化的評價,是否可以完全免去對被評價對象——學(xué)生的告知義務(wù)?二是評價的無處不在,是否會形成??滤f的“全景敞視”和無處不在的“權(quán)力的眼睛”?
3.如何避免人成為人工智能評價下的“算法動物”
品德評價是一項(xiàng)高利害性的評價,既涉及人的諸多外部利益的實(shí)現(xiàn),也關(guān)乎人之為人的基本資格。因此,品德評價歷來都受到人們的高度關(guān)注。雖然人們特別關(guān)注品德評價,但是由于品德評價自身的科學(xué)性一直得不到有效解決,因此,人們對于品德評價的結(jié)果會有自我解讀和批判的空間。一旦品德評價借助人工智能全面滲透于個體的日常生活,并以一種科學(xué)的姿態(tài)展示出來,此時個體面對這樣一種基于“科學(xué)”的評價結(jié)果就失去了其主動質(zhì)疑的合法地位。在這種情況下,所謂人工智能的品德評價就成了一種新的社會主宰,成為決定個體社會聲譽(yù)、升學(xué)就業(yè)等重大利益問題的重要依據(jù)。為了在這樣一套人工智能的品德評價中獲得“好”的結(jié)果,個體便會以人工智能評價的道德算法來進(jìn)行自我道德形象的整飾。一旦如此,這樣一種看似先進(jìn)的品德評價,就有可能將作為主體而存在的個體降格為一種失去反思和批判能力的“算法動物”——個體主要是按照人工智能的道德算法生活,而不是按照自我的道德意志來處事。
人工智能的進(jìn)化在很大程度上是算法的自動演變。如果這種演變完全交由智能系統(tǒng)本身自然發(fā)展而不加以人工干涉,那么,其演變結(jié)果有可能會突破現(xiàn)代倫理規(guī)則。例如,微軟人工智能機(jī)器人Tay 由預(yù)設(shè)“天真型人格”反轉(zhuǎn)為種族主義者,搜索引擎的智能會在更大概率上將黑人姓名與犯罪記錄聯(lián)系在一起[9]。因此,如何防止人工智能在品德評價過程中出現(xiàn)突破人類現(xiàn)有倫理規(guī)則的邊界,同樣是一個需要人們重視的現(xiàn)實(shí)問題。
不可否認(rèn),人工智能時代的到來給品德評價諸多難題的解決帶來了技術(shù)上的可能。如何在更好地發(fā)揮人工智能的技術(shù)優(yōu)勢的同時,有效規(guī)避其中的倫理風(fēng)險(xiǎn),是人工智能時代品德評價的重大時代課題??傮w而言,對人工智能時代品德評價倫理風(fēng)險(xiǎn)的規(guī)避,需要著力處理好以下幾個問題。
品德評價既是一個科學(xué)性問題,但同時也是一個價值性問題。人工智能所仰仗的算法邏輯本質(zhì)上是求“真”的?!叭斯ぶ悄艿倪M(jìn)化,本質(zhì)上是算法的設(shè)計(jì),遵循的是真理原則。如棋牌博弈軟件會打敗所有的對手,而不論對手是男女老幼、爺孫友朋?!保?0]因此,在智能化的品德評價中,所有的個體在面對同樣的算法邏輯的時候,都會被簡化為一系列的數(shù)據(jù)符碼。但是,人的品德的成長與發(fā)展,除了需要遵循“真”的邏輯外,還有著非常重要的“善”的標(biāo)準(zhǔn),恰恰是后者構(gòu)成了人與其他生物相區(qū)別的重要標(biāo)志。因此,品德評價可以充分利用人工智能在信息采集和處理方面的客觀化優(yōu)勢來提升評價本身的科學(xué)性;在這個過程中,也要充分意識到其依據(jù)算法所獲得的信息之“真”不能完全成為其主宰一切的標(biāo)準(zhǔn)。人工智能算法的求真邏輯需要在合目的性的規(guī)約下運(yùn)轉(zhuǎn)。
這實(shí)際上是要求我們在開展品德評價的時候,不能夠把對學(xué)生的品德評價完全交由人工智能來完成。當(dāng)前,一些學(xué)校購買了所謂智能化的德育評價軟件、APP 等,將之作為評價學(xué)生品德的基本依據(jù)。這樣一種簡單的做法是存在極大的科學(xué)性和倫理性風(fēng)險(xiǎn)的。這些軟件開發(fā)背后的道德算法是需要進(jìn)一步的專業(yè)審查的。如果其基本的算法前提在專業(yè)上、價值取向上有問題,那么,基于這樣的智能化軟件所做出的評價也必然是有缺陷的。因此,利用而不是迷信智能化的品德評價系統(tǒng),保持人作為評價主體的主體性,是人工智能時代品德評價應(yīng)該有的基本立場。
我們利用人工智能開展品德評價,最重要的訴求之一就是解決當(dāng)前品德評價的諸多模糊性和隨意性問題,讓品德評價變得更具有確定性。這樣一種關(guān)于品德評價的確定性追求顯然是合理的,也是必需的。但是,我們也不能因執(zhí)著于對這種評價確定性的追求,而遺忘了人作為一種可能性存在這一基本事實(shí)。尤其是對于成長中的學(xué)生而言,不確定恰恰是其存在的最大魅力。正是因?yàn)槠渖形创_定,他們因而有著無限多種的發(fā)展可能性。學(xué)生品德的發(fā)展也同樣如此。但是,人工智能作為一種技術(shù),其最大的發(fā)展動力就在于追求確定性,試圖克服人由于不確定性所可能帶來的種種風(fēng)險(xiǎn)和生存焦慮。
從人類技術(shù)的發(fā)展史來看,幾乎每一項(xiàng)新興技術(shù)的出現(xiàn),都在一個方面增強(qiáng)了人的生活的確定性。大到氣候變化的預(yù)先判斷,小到個人生活的自動化,這個世界因技術(shù)的廣泛使用而變得越來越有確定性。人的確定性的每進(jìn)一步,實(shí)際上都意味著人的可能性減少一分。而人的可能性的減少就會危及作為主體的人的主動性、能動性和創(chuàng)造性。一旦每個人在智能化的品德評價之下,都被其道德算法規(guī)約成了一個在道德上完全確定的人,那么,個體在道德上的可能性和能動性將會受到極大損害,這有可能動搖人之為人的根本。因此,怎樣在充分發(fā)揮人工智能在品德評價方面的確定性優(yōu)勢的同時,為人的存在的可能性留下必要的空間,是人工智能時代品德評價需要解決的現(xiàn)實(shí)問題。對此,有學(xué)者就明確提出,德育評價需要回歸其本體價值(Ontological value),即德育評價需要回歸其培養(yǎng)健全人格的人這一根本目標(biāo),將人置于目的而不是手段來看待[11]。這實(shí)際上就意味著在品德評價中,“人不應(yīng)該被當(dāng)作可估算、可估價的工具性物體”[12],而是應(yīng)被視為具有個體性和能動性的價值主體。因此,哪怕是人工智能時代的品德評價,也依然要為人的主體能動性留下必要空間。
相比于人的其他素養(yǎng)的評價而言,品德評價是具有高利害性的。個體在智力、身體、審美、勞動等方面的素養(yǎng)欠缺,都不會影響到人之為人的根本問題。比如,我們不會評價一個數(shù)學(xué)學(xué)不好的人不是人,也不會因?yàn)橐粋€人審美趣味的低下就斥之為禽獸。只有當(dāng)一個人的品德修養(yǎng)方面出了問題的時候,人們才會從做人資格的角度去評價他是不是一個人。由此可見,品德評價的高利害性還不僅僅在于外在的聲譽(yù)或其他利益方面的獲得,更是關(guān)乎到一個人做人的基本資格問題。這就需要在品德評價方面慎之又慎。
總體而言,雖然技術(shù)的進(jìn)步在很大程度上提升了人工智能的智能化水平,但是人工智能依然處在“弱人工智能”階段,其未來發(fā)展前景還有許多需要破解的技術(shù)和倫理問題。在這種情況下,將人工智能應(yīng)用于具有如此高利害性的品德評價,這一做法就不宜操之過急;人們一方面加大人工智能的技術(shù)研究,另一方面則同步加大對其發(fā)展邊界的倫理研究。沒有倫理邊界的技術(shù)開發(fā)與應(yīng)用是可怕的。這實(shí)際上是需要我們在面對人工智能的品德評價應(yīng)用的時候,要有足夠的倫理定力,要有所為而有所不為。有所為,主要指的是品德評價要主動應(yīng)用新技術(shù)、新方法;有所不為,則主要指的是品德評價一定要服務(wù)于人的存在狀態(tài)的優(yōu)化這一目的,凡是有可能危及人的存在本身的做法,都應(yīng)該暫緩其在品德評價中的應(yīng)用。
“評價不是為了證明(prove),而是為了改進(jìn)(improve)?!保?3]人工智能在品德評價中的“可為”,應(yīng)以人類道德善的“應(yīng)為”作為其基本的行動邊界。我們“永遠(yuǎn)不要把人工智能擺放在人類‘主體’的位置,必須立場鮮明地將其視為機(jī)器”[14]。尤其是在ChatGPT 等越來越高度智能化的技術(shù)面前,我們更應(yīng)堅(jiān)守人的主體地位。這樣才能夠在充分發(fā)揮人工智能的技術(shù)優(yōu)勢的同時,盡可能規(guī)避其可能給品德評價帶來的諸多倫理風(fēng)險(xiǎn)。