亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        計(jì)算機(jī)性別刻板印象的分類及成因

        2022-06-24 14:39:42蔡星穎楊麗嫻
        心理技術(shù)與應(yīng)用 2022年5期
        關(guān)鍵詞:計(jì)算機(jī)人工智能

        蔡星穎 楊麗嫻

        摘 要 性別刻板印象是關(guān)于不同性別群體的固定觀念,因其對(duì)社會(huì)的性別平等產(chǎn)生消極影響而受到世界關(guān)注。以往性別刻板印象的相關(guān)研究以人類為主體,隨著科技進(jìn)步,計(jì)算機(jī)也發(fā)展出性別刻板印象且常常被人們忽略?;诖耍紫葏^(qū)分了兩種不同的計(jì)算機(jī)性別刻板印象,再分別闡述其已有的研究結(jié)果、產(chǎn)生原因以及干預(yù)思路。未來的研究可以在分類基礎(chǔ)上,進(jìn)一步探索計(jì)算機(jī)性別刻板印象的其他領(lǐng)域,驗(yàn)證干預(yù)方式的效果,促進(jìn)現(xiàn)實(shí)社會(huì)和虛擬世界的性別平等。

        關(guān)鍵詞 性別刻板印象;計(jì)算機(jī);人工智能;STEM性別刻板印象

        分類號(hào) B84:C91

        DOI: 10.16842/j.cnki.issn2095-5588.2022.05.006

        1 引言

        “嘿,Siri?!薄拔以凇!闭?qǐng)問,此時(shí)你腦海里的Siri是男聲還是女聲?幾乎所有人都回答:女聲。2021年蘋果公司發(fā)布的IOS 14.5第六個(gè)版本,初始化設(shè)置增加了一個(gè)新項(xiàng)目,即選擇Siri的聲音,此前Siri的默認(rèn)設(shè)置一直都是女聲。市面上其他的語音助手, 小愛同學(xué)、 小度、 Alexa、 Cortana等都默認(rèn)設(shè)置為女聲,甚至很多語音助手只有女聲(Bergen, 2016) 。除了語音助手,其他人工智能產(chǎn)品雖然沒有生命,但依然被貼上性別標(biāo)簽,形成計(jì)算機(jī)性別刻板印象(Eyssel & Hegel, 2012)。性別刻板印象是關(guān)于男性和女性群體的固定觀念,這些看法雖然能幫助人們?cè)诙虝r(shí)間內(nèi)解讀復(fù)雜的社會(huì),卻忽視了個(gè)體差異,可能對(duì)他人產(chǎn)生不正確的認(rèn)知,從而導(dǎo)致偏見和歧視(Amodio, 2014; Ellemers, 2018)。目前性別刻板印象已被證實(shí)不僅存在于現(xiàn)實(shí)社會(huì),也存在于虛擬的計(jì)算機(jī)生命(Greenwald, 2017)。

        計(jì)算機(jī)性別刻板印象根據(jù)不同對(duì)象可分為兩類,一類是人類對(duì)計(jì)算機(jī)產(chǎn)品持有的性別刻板印象,另一類是計(jì)算機(jī)自身攜帶的性別刻板印象。雖然計(jì)算機(jī)、機(jī)器人等只是通過數(shù)字和算法運(yùn)行,并不具備真實(shí)的生命,但這些產(chǎn)品通常具有擬人化特點(diǎn)。擬人化是指非生命物體被賦予了人類的固有屬性或特征(Aggarwal & McGill, 2011),最典型的例子就是機(jī)器人,它具備酷似人類的外形,可以增強(qiáng)用戶的信任度。虛擬生命具備了人類特征,人們自然也會(huì)把人類社會(huì)的規(guī)則應(yīng)用在計(jì)算機(jī)身上。性別是人群的基本劃分,由此便發(fā)展出性別化的計(jì)算機(jī)產(chǎn)品,如語音助手默認(rèn)設(shè)置成女聲,人們也更習(xí)慣女性角色的語音助手。這些都屬于人類對(duì)計(jì)算機(jī)所持有的性別刻板印象。而計(jì)算機(jī)自身攜帶的性別刻板印象是指,雖然算法本身不具有刻板印象,但發(fā)明和使用這些算法的人類持有的刻板印象會(huì)在計(jì)算結(jié)果中展示出來(Zuiderveen-Borgesius, 2018)。例如,用計(jì)算機(jī)輸入法預(yù)測(cè)下一個(gè)字,購物網(wǎng)站推送目標(biāo)群體可能感興趣的商品,用戶的喜好和習(xí)慣被各個(gè)軟件捕捉后再呈現(xiàn)出來。計(jì)算機(jī)由于學(xué)習(xí)了人類給予的信息,掌握了現(xiàn)實(shí)社會(huì)的數(shù)據(jù),也開始表現(xiàn)出大眾觀念,最終形成了攜帶性別刻板印象的計(jì)算機(jī)。

        隨著科學(xué)技術(shù)的飛速發(fā)展,尤其是智能手機(jī)的普及,計(jì)算機(jī)或智能算法的應(yīng)用越來越廣,對(duì)人類社會(huì)起著舉足輕重的作用,關(guān)于計(jì)算機(jī)性別刻板印象的研究也層出不窮。然而以往研究相對(duì)獨(dú)立和零散,只專注于某一領(lǐng)域的計(jì)算機(jī)性別刻板印象,因而總結(jié)不同領(lǐng)域的計(jì)算機(jī)性別刻板印象顯得刻不容緩。同時(shí),現(xiàn)有研究并沒有區(qū)分以上兩種計(jì)算機(jī)性別刻板印象,往往將其混為一談,且對(duì)它們的關(guān)注程度不一樣(Ahn et al., 2022)。這兩種與計(jì)算機(jī)有關(guān)的性別刻板印象從產(chǎn)生原因、發(fā)生過程到干預(yù)方式都不相同,因此有必要進(jìn)行區(qū)分?;诖?,本文將從人們對(duì)計(jì)算機(jī)持有的性別刻板印象和計(jì)算機(jī)自身攜帶的性別刻板印象分別進(jìn)行綜述,梳理領(lǐng)域內(nèi)的相關(guān)研究,為計(jì)算機(jī)研發(fā)人員和普通用戶提供避免計(jì)算機(jī)性別刻板印象的思路。

        2 人類對(duì)計(jì)算機(jī)持有性別刻板印象

        雖然計(jì)算機(jī)是非生命產(chǎn)物,但人類往往依據(jù)其外表、內(nèi)在個(gè)性、功能等類比現(xiàn)實(shí)中的男性或女性。Eyssel和Hegel (2012)開展了一項(xiàng)機(jī)器人性別刻板印象實(shí)驗(yàn),研究人員向被試展示兩種機(jī)器人的圖片,一種是長(zhǎng)發(fā)機(jī)器人,另一種是短發(fā)機(jī)器人,除了發(fā)型之外其他特征保持一致。結(jié)果顯示,被試一致認(rèn)為短發(fā)機(jī)器人比長(zhǎng)發(fā)機(jī)器人更有能力,而長(zhǎng)發(fā)機(jī)器人比短發(fā)機(jī)器人更熱情。Ahn等人(2022)也發(fā)現(xiàn)了類似的結(jié)果,即人們認(rèn)為女性聲音的機(jī)器人更熱情,男性聲音的機(jī)器人更有能力,并且女聲機(jī)器人推薦享樂產(chǎn)品時(shí)得到用戶更多的認(rèn)可,男聲機(jī)器人推薦實(shí)用產(chǎn)品受認(rèn)可度更高。Callaway和Sima’An (2005)在著作Wired for Speech中提到,即使是對(duì)沒有生命的機(jī)器語音,人們也認(rèn)為男性化聲音給予的信息更權(quán)威。在一項(xiàng)關(guān)于性功能機(jī)器人的元分析中,幾乎沒有包含女性使用男性機(jī)器人的研究(González-González et al., 2020),從而形成提供性服務(wù)的機(jī)器人偏女性化的刻板印象。機(jī)器人的內(nèi)隱個(gè)性特征也影響著人們的認(rèn)知。在典型的男性化崗位(例如出租車公司),人們更相信帶有內(nèi)隱男性特征的機(jī)器人(自信, 強(qiáng)勢(shì))而非內(nèi)隱女性特征的機(jī)器人(寬容, 溫柔)(Kraus et al., 2018)。因此,人類一旦捕捉到機(jī)器人外在或內(nèi)在的性別特征,他們的性別刻板印象就會(huì)被激活,并將其應(yīng)用在機(jī)器人身上。

        相比技術(shù)精湛的機(jī)器人,語音助手普及性更大,是計(jì)算機(jī)智能產(chǎn)物從實(shí)驗(yàn)室走向大眾生活的重要體現(xiàn)?,F(xiàn)代人已無法離開智能手機(jī),人們使用的語音助手95%是手機(jī)的自帶功能,而世界各國的語音助手幾乎都默認(rèn)女聲(Mark, 2019)。韓國市面上常用的五款語音助手,其默認(rèn)設(shè)置全都為女聲,其中三款語音助手介紹自己是女性,另外兩款雖然沒有明確聲明性別,但它們都以漂亮、火辣、 苗條等女性化形容詞刻畫自身形象(Hwang et al., 2019)。早在1878年9月1日,Emma Nutt被貝爾公司錄用,成為世界上第一個(gè)女性接線員。人們發(fā)現(xiàn)這名女性接線員比原來的男性接線員更溫柔、更耐心,公司便開始大量培養(yǎng)女接線員,從此接線員成為了女性的典型職業(yè)。不僅是接線員,地鐵站、火車站、公園等各公共場(chǎng)所的廣播,以及各家各戶的智能語音設(shè)備和手機(jī)語音助手,幾乎都是女性聲音??梢姍C(jī)器人、語音助手這些虛擬生命在不知不覺間走進(jìn)人們的日常生活后,人類也悄悄為它們貼上了性別標(biāo)簽。

        現(xiàn)實(shí)社會(huì)中,性別刻板印象會(huì)造成人才流失、領(lǐng)域性別單一化等問題,如今人們對(duì)計(jì)算機(jī)也產(chǎn)生了性別刻板印象,這將擴(kuò)大現(xiàn)實(shí)中的性別差異。Hwang等人(2019)通過分析語音助手的回復(fù)內(nèi)容,發(fā)現(xiàn)它們從多方面塑造了一個(gè)年輕漂亮的女性助理形象。此外,語音助手常把自己置于從屬地位,討好用戶,接受自己被性化;面對(duì)辱罵,語音助手會(huì)道歉,請(qǐng)求原諒,積極建立和用戶的親密關(guān)系;面對(duì)性騷擾,語音助手也會(huì)熱情回應(yīng),例如模仿親吻的聲音或暗示性行為(Hwang et al., 2019)。語音助手默認(rèn)女聲,使用戶很自然地將這個(gè)無條件服從的虛擬助理想象成一位女性。然而,生活環(huán)境會(huì)影響人們的刻板印象(Stapel & Lindenberg, 2011),接觸的榜樣越多,刻板印象也會(huì)越深刻(Asgari et al., 2012)。這意味著,女聲語音助手被使用得越多,其表達(dá)的女性刻板印象對(duì)人們的影響越大,? 人們?cè)秸J(rèn)為女性應(yīng)該服從、 取悅他人,從而最終導(dǎo)致女性社會(huì)地位下降(Mark, 2019)。

        為了減輕社會(huì)性別刻板印象,世界各領(lǐng)域積極塑造反刻板印象形象,如女校長(zhǎng)、 女政治家、 女領(lǐng)導(dǎo)等(Beaman et al., 2009b; Foos & Gilardi, 2019)。 減輕人類對(duì)計(jì)算機(jī)的性別刻板印象也需要生產(chǎn)反刻板印象的數(shù)碼產(chǎn)品,例如更改語音助手的聲音配備:亞馬遜的語音助手Alexa于2021年在美國試行男聲語音;2020年,Google Assistant新加入男聲語音。雖然越來越多的語音助手近年開始添加男聲,但很多默認(rèn)設(shè)置還是女聲,如谷歌地圖和百度地圖等,人們需要找到特定的設(shè)置界面才能更改目標(biāo)聲音,操作過于繁瑣。其實(shí)語音助手并不是真實(shí)的生命,它們本不應(yīng)被歸類為男性或女性。研究表明,對(duì)于區(qū)分性別和性別模糊的聲音,用戶對(duì)它們的信任感是沒有差異的,即無性別的語音助手依然可以得到人們的信賴(Tolmeijer et al., 2021)。哥本哈根大學(xué)語音學(xué)家聯(lián)合研究人員在2019年推出了世界上首個(gè)無性別的語音助手Q(https://www.genderlessvoice.com), 無性別計(jì)算機(jī)將是科技發(fā)展的趨勢(shì)。

        3 計(jì)算機(jī)自身攜帶性別刻板印象

        計(jì)算機(jī)發(fā)展得益于人類科技的進(jìn)步,同時(shí)也被人類的觀念影響(Howard & Kennedy, 2020),因此智能機(jī)器在現(xiàn)實(shí)應(yīng)用中往往表現(xiàn)出社會(huì)性別刻板印象。

        在線智能招聘工具多次被證實(shí)具有性別刻板印象(Chu et al., 2022; Loftus & Cochran, 2021)。Wijnhoven和Van Haren (2021)發(fā)現(xiàn)大學(xué)生利用谷歌搜索(Google Search Engine ,GSE)找工作時(shí),女生查詢空缺職位的結(jié)果多是女性為主的職業(yè),而男生的查詢結(jié)果沒有性別限制;2014年亞馬遜試行自主研發(fā)的在線招聘工具最后選出的候選人幾乎都是白種男性,若簡(jiǎn)歷中包含“女性”一詞,還會(huì)被系統(tǒng)減分處理;對(duì)于性別模糊的領(lǐng)導(dǎo)角色, 軟件自動(dòng)將其識(shí)別為男性, 而把助手角色識(shí)別為女性(Greenwald, 2017)。計(jì)算機(jī)智能招聘的性別刻板印象會(huì)加劇職業(yè)的性別分化,尤其損害了女性就業(yè)和發(fā)展(Loftus & Cochran, 2021)。

        相比人類,計(jì)算機(jī)具有更高精度的測(cè)量和操作,使其在醫(yī)療行業(yè)大放光彩,但大多數(shù)醫(yī)療智能算法的設(shè)計(jì)都忽略了性別維度的影響,造成了治療、檢測(cè)的性別刻板印象。在新冠肺炎疫情大流行環(huán)境中,為了調(diào)查計(jì)算機(jī)智能模型對(duì)不同性別患者健康狀況的預(yù)測(cè)精度,Chung等人(2021)訓(xùn)練和評(píng)估了兩個(gè)獨(dú)立的模型——一個(gè)只使用男性患者的數(shù)據(jù),另一個(gè)只使用女性患者的數(shù)據(jù)。結(jié)果表明,不同性別數(shù)據(jù)訓(xùn)練的模型對(duì)另一組患者的預(yù)測(cè)精度都下降了,也就是說,有性別刻板印象的醫(yī)療預(yù)測(cè)模型準(zhǔn)確度偏低。這些模型對(duì)少數(shù)群體的治療方式與實(shí)際病情不匹配,可能會(huì)造成嚴(yán)重的醫(yī)療事故。例如,使用性別刻板印象的計(jì)算機(jī)計(jì)算麻醉病人的特定風(fēng)險(xiǎn)評(píng)分,被低估的風(fēng)險(xiǎn)可能會(huì)導(dǎo)致無法挽回的悲劇(O’Reilly-Shah et al., 2020)。醫(yī)療智能算法除了臨床應(yīng)用的性別差異,還演化出醫(yī)療賠償或醫(yī)療條件的性別差異。例如,由于流行病學(xué)研究表明,婦女患抑郁癥的比例較高 (Cirillo et al., 2020),則女性可能會(huì)被系統(tǒng)要求繳納更高的保險(xiǎn)金額。

        執(zhí)法部門使用面部識(shí)別程序辨認(rèn)犯罪嫌疑人時(shí),識(shí)別膚色較深的女性面部圖像明顯比識(shí)別白人男性面部圖像時(shí)更容易出錯(cuò),這將導(dǎo)致警察因性別和種族因素做出誤判(Gentzel, 2021);當(dāng)條件相同的男性和女性申請(qǐng)銀行貸款時(shí),由于計(jì)算機(jī)評(píng)價(jià)女性能力低于男性(Eyssel & Hegel, 2012),系統(tǒng)將更大概率地選擇給男性貸款,或收取女性更高的利息;計(jì)算機(jī)評(píng)價(jià)女性是低權(quán)力、低影響力的政治參與,而男性是高權(quán)力、高影響力的政治參與(Wijnhoven & Van Haren, 2021);還有汽車駕駛、自我管理、信用評(píng)分、治安預(yù)測(cè)等方面的計(jì)算機(jī)應(yīng)用,其算法幾乎都具有嚴(yán)重的性別刻板印象(Weidner, 2020)。

        以往人們普遍認(rèn)為人做的決定無法避免個(gè)體偏見,計(jì)算機(jī)會(huì)更客觀。但如今計(jì)算機(jī)也持有了性別刻板印象,它們的計(jì)算結(jié)果也不再公平。招聘網(wǎng)站的性別刻板印象將導(dǎo)致崗位局限,尤其是會(huì)減少女性工作機(jī)會(huì),或推薦她們?nèi)ヒ耘詾橹鞯墓ぷ鳝h(huán)境, 這將加大該領(lǐng)域的性別單一化程度; 用人單位利用計(jì)算機(jī)計(jì)算復(fù)雜的晉升規(guī)則,持有領(lǐng)導(dǎo)性別刻板印象的計(jì)算機(jī)將給予男性更多的升職機(jī)會(huì), 女性成為領(lǐng)導(dǎo)便難上加難 (Greenwald, 2017);金融或信貸的性別刻板印象評(píng)價(jià)會(huì)加劇男女的經(jīng)濟(jì)差異,進(jìn)而影響群體的社會(huì)地位。

        總之,計(jì)算機(jī)是人類科技的產(chǎn)物,它們所持有的性別刻板印象會(huì)導(dǎo)致現(xiàn)實(shí)社會(huì)的性別差異越來越大。避免計(jì)算機(jī)自身攜帶性別刻板印象的方法是建立公平的算法。目前,世界各國逐步建立相關(guān)制度來監(jiān)督算法的公平性(Zuiderveen-Borgesius, 2018),例如在算法學(xué)習(xí)訓(xùn)練階段,技術(shù)人員需提供性別平等信息。2019年, 中國開始實(shí)施電子商務(wù)法, 要求電子商務(wù)經(jīng)營(yíng)者需要為大眾提供不針對(duì)個(gè)人特征的選擇(http://www.npc.gov.cn), 保證對(duì)不同性別群體的搜索結(jié)果一致。Duck Duck Go(DDG)搜索引擎關(guān)注求職人員的搜索內(nèi)容,再結(jié)合專家意見展示空缺職位,因此男性和女性求職者的搜索結(jié)果和就業(yè)機(jī)會(huì)沒有差異,有利于不同職業(yè)的性別平等發(fā)展(Wijnhoven & Van Haren, 2021)。計(jì)算機(jī)依賴算法做決策,而算法是可以被改寫的,當(dāng)技術(shù)人員建立性別公平的算法,計(jì)算機(jī)攜帶的性別刻板印象也將減弱。

        4 計(jì)算機(jī)性別刻板印象的產(chǎn)生原因

        Nass等人(1994)提出計(jì)算機(jī)社會(huì)角色理論(Computers are Social Actors, CASA),即現(xiàn)實(shí)的社會(huì)關(guān)系和社會(huì)規(guī)則在計(jì)算機(jī)中也存在。因此,不論是人類對(duì)計(jì)算機(jī)產(chǎn)物持有的性別刻板印象,還是計(jì)算機(jī)自身攜帶的性別刻板印象,都與現(xiàn)實(shí)社會(huì)的性別刻板印象息息相關(guān)。

        4.1 人類對(duì)計(jì)算機(jī)持有性別刻板印象的原因

        人類對(duì)計(jì)算機(jī)持有性別刻板印象的原因主要有兩個(gè),一是刻板印象內(nèi)容模型中關(guān)于女性高熱情和男性高能力的觀念,二是STEM領(lǐng)域的從業(yè)者幾乎都是男性。

        4.1.1 刻板印象內(nèi)容模型

        刻板印象內(nèi)容模型(Stereotype content)可以較全面地概括社會(huì)對(duì)不同性別人群的刻板印象:高能力的男性和高熱情的女性(Fiske et al., 2002)。Fiske等人(2002)在普林斯頓大學(xué)最先開始了刻板印象的系列研究,經(jīng)過多輪調(diào)研,他們發(fā)現(xiàn)人們對(duì)某個(gè)群體的刻板印象往往是從能力和熱情兩個(gè)維度進(jìn)行評(píng)價(jià)的。能力維度與目標(biāo)達(dá)成有關(guān),包括有能力、有競(jìng)爭(zhēng)力、自信、獨(dú)立、聰明五個(gè)特質(zhì);熱情維度與社交相關(guān),包括熱情、寬容、和善、真誠四個(gè)特質(zhì)(佐斌等, 2021)。并且這兩個(gè)維度常常是互補(bǔ)的,即某群體在其中一個(gè)維度上的高評(píng)價(jià)意味著在另一個(gè)維度上的低評(píng)價(jià)(Fiske, 2018),因此男性被認(rèn)為是高能力低熱情,女性是高熱情低能力(Wen et al., 2020; White & Gardner, 2009)。

        由于計(jì)算機(jī)產(chǎn)物多設(shè)計(jì)成擬人化形象,現(xiàn)實(shí)社會(huì)中的性別刻板印象也將遷移至計(jì)算機(jī)。市場(chǎng)對(duì)語音助手有高熱情需求(Chang et al., 2018),而女性符合高熱情的刻板印象(Hentschel et al., 2019; Sczesny et al., 2019),所以語音助手被默認(rèn)設(shè)置成女聲。同時(shí),現(xiàn)實(shí)中的助理職務(wù)多由女性擔(dān)任,語音助手作為一種虛擬私人助理,其符合傳統(tǒng)的刻板印象,可以減少用戶的學(xué)習(xí)成本,有助于產(chǎn)品的普及和使用 (Hwang et al., 2019)。社會(huì)普遍認(rèn)為男性能力更高,給出的建議更權(quán)威(Sorokowski et al., 2019),因此人們往往更相信男聲機(jī)器語音提的建議,或認(rèn)為權(quán)威性高的機(jī)器人更男性化(Simon, 2019)。判斷長(zhǎng)發(fā)或女聲的機(jī)器人更熱情,短發(fā)或男聲的機(jī)器人更有能力,都是刻板印象內(nèi)容模型中對(duì)性別群體的不同期望 (Wen et al., 2020; White & Gardner, 2009)。

        現(xiàn)實(shí)社會(huì)對(duì)不同性別的刻板印象以熱情和能力兩個(gè)維度為主,人類對(duì)計(jì)算機(jī)產(chǎn)物的性別刻板印象也以高熱情女性化計(jì)算機(jī)、高能力男性化計(jì)算機(jī)為主。

        4.1.2 STEM領(lǐng)域性別單一化

        STEM(Science, Technology, Engineering and Mathematics)領(lǐng)域中女性缺乏代表性是人類對(duì)計(jì)算機(jī)產(chǎn)生性別刻板印象的一個(gè)現(xiàn)實(shí)因素。目前STEM領(lǐng)域性別極度不平衡,尤其是高層管理人員, 幾乎都是男性——蘋果、 谷歌、 微軟等科技公司里女技術(shù)員僅占20%左右, 智能計(jì)算機(jī)的女研究員只有10%到15%(Bamberger, 2014; Charlesworth & Banaji, 2019; Cheryan et al., 2013; Master & Meltzoff, 2020)。一方面,研究表明男性群體相比女性有更深刻的性別刻板印象(Koenig et al., 2011),他們的強(qiáng)烈觀念會(huì)反映在發(fā)明的產(chǎn)品中(Zuiderveen-Borgesius, 2018),因此計(jì)算機(jī)產(chǎn)物通常具有性別特征,更容易激活人們的性別刻板印象。另一方面,通常人們期待友好、主動(dòng)的異性關(guān)系,在設(shè)計(jì)過程中,技術(shù)人員可能無意識(shí)地帶入了這種期望。例如,語音助手是時(shí)刻陪伴用戶的私人助理,對(duì)于這種親密對(duì)象,人們可能更期待異性。而語音助手的技術(shù)團(tuán)隊(duì)幾乎都是男性,在設(shè)計(jì)和試驗(yàn)過程中他們更大概率會(huì)選擇女性的聲音。提供性服務(wù)的機(jī)器人,項(xiàng)目研發(fā)的初衷即是以男性群體的需求為主,產(chǎn)品從發(fā)布到市場(chǎng)拓展, 也以男性為主要消費(fèi)者, 便有了性機(jī)器人偏女性化的刻板印象(González-González et al., 2020)。同時(shí),社會(huì)存在內(nèi)群體偏好(Enock et al., 2021),男性研發(fā)人員在設(shè)計(jì)不同智能產(chǎn)品時(shí)也偏好本群體的優(yōu)秀表現(xiàn),例如將功能強(qiáng)、地位高的計(jì)算機(jī)設(shè)計(jì)成男性形象。

        總之,STEM領(lǐng)域性別單一化是導(dǎo)致人類對(duì)計(jì)算機(jī)產(chǎn)生性別刻板印象的重要因素。世界各國如今紛紛出臺(tái)政策、完善制度,鼓勵(lì)女性積極參與科技領(lǐng)域(Bamberger, 2014; Hoa et al., 2019; Kuhl et al., 2019; Latimer et al., 2019; Ovseiko et al., 2020)。在中國,科教興國是我們的發(fā)展戰(zhàn)略, 2021年7月19日,中華人民共和國科技部、全國婦聯(lián)、教育部等13個(gè)部門發(fā)布“關(guān)于支持女性科技人才在科技創(chuàng)新中發(fā)揮更大作用的若干措施”通知,以促進(jìn)女性就業(yè)STEM領(lǐng)域。

        4.2 計(jì)算機(jī)自身攜帶性別刻板印象的原因

        由于計(jì)算機(jī)只有基于數(shù)據(jù)庫的學(xué)習(xí)才能在實(shí)際中應(yīng)用,那么其自身攜帶的性別刻板印象,追根究底是數(shù)據(jù)庫的性別不公造成的。在線招聘工具通常只是被訓(xùn)練成查看簡(jiǎn)歷中的詞匯,而不是相關(guān)的技能。亞馬遜研發(fā)的智能招聘系統(tǒng),以過去十年被采納的簡(jiǎn)歷為基礎(chǔ)訓(xùn)練模型。但過去的候選人大部分是男性,導(dǎo)致招聘系統(tǒng)更青睞男性求職者。因此,僅僅是改變性別或性別化的名字,就能對(duì)招聘結(jié)果產(chǎn)生巨大影響 (Caliskan et al., 2017)。計(jì)算機(jī)識(shí)別領(lǐng)導(dǎo)角色是男性、助理角色是女性,也是因?yàn)樵谒惴ㄓ?xùn)練時(shí)學(xué)習(xí)了大量男領(lǐng)導(dǎo)、女助理的信息 (Greenwald, 2017)。醫(yī)療模型訓(xùn)練所用數(shù)據(jù)庫多為以往的病歷和健康記錄等,但其中有不少不公或侮辱性內(nèi)容(Himmelstein et al., 2022),演變成醫(yī)療計(jì)算機(jī)的性別刻板印象。

        數(shù)據(jù)庫的性別不平等是現(xiàn)實(shí)中男女社會(huì)地位差異的映射。網(wǎng)上數(shù)以億計(jì)的語言材料組成了巨大的語料庫,但“Person”或“People”這種概念詞并不是中性的,而是優(yōu)先與男性聯(lián)系——這是由人類社會(huì)中男性占主導(dǎo)地位的刻板印象造成的(Bailey et al., 2022)。雖然計(jì)算機(jī)擁有巨大的儲(chǔ)存空間和高強(qiáng)的學(xué)習(xí)能力,但算法并不能包羅萬象。我們無法知道計(jì)算機(jī)接收到的信息有多全面,其計(jì)算結(jié)果是否包含了所有變量。人類在面對(duì)有性別差異的語料時(shí),有可能認(rèn)識(shí)到其中的性別偏見或歧視,從而有意識(shí)地進(jìn)行認(rèn)知調(diào)整。但計(jì)算機(jī)算法只會(huì)進(jìn)一步邊緣化少數(shù)群體和弱勢(shì)群體,因?yàn)樗鼈冞€不具備社會(huì)道德能力。總之,歷史數(shù)據(jù)存在性別刻板印象,而計(jì)算機(jī)將比人類更明顯地反映出這種歷史模式。

        為了減少計(jì)算機(jī)自身攜帶的性別刻板印象,人類需創(chuàng)建性別平衡的數(shù)據(jù)集,運(yùn)用于公平算法開發(fā)(Chu et al., 2022)。在訓(xùn)練計(jì)算機(jī)算法之前, 可以先查看每個(gè)數(shù)據(jù)集中性別群體的占比(Cirillo et al., 2020)。IBM公司2018年發(fā)布了人工智能偏見檢測(cè)工具——AI Fairness 360工具包。該工具包括30個(gè)公平性指標(biāo),和9個(gè)偏差緩解算法。研究人員和開發(fā)者可將工具整合至自己的計(jì)算機(jī)學(xué)習(xí)模型中,檢測(cè)性別信息的差異,以減少可能產(chǎn)生的性別刻板印象。已完成訓(xùn)練的智能計(jì)算機(jī),可以在產(chǎn)品提交階段附一份關(guān)于性別的道德問題聲明,其可能存在的性別刻板印象以及適用場(chǎng)景,便于日后權(quán)衡使用(Castelvecchi, 2021)。

        5 問題與展望

        隨著社會(huì)進(jìn)步,性別平等成為全世界的話題?,F(xiàn)實(shí)社會(huì)充斥著種種性別刻板印象、性別不公平,尤其阻礙了女性的發(fā)展。計(jì)算機(jī)技術(shù)帶來了生活的便利,卻少有人發(fā)現(xiàn)這些虛擬生命正在悄無聲息地傳播性別刻板印象。目前越來越多的研究發(fā)現(xiàn)計(jì)算機(jī)性別刻板印象對(duì)現(xiàn)實(shí)社會(huì)中的男女平等產(chǎn)生消極影響(Mark, 2019),且不易察覺。關(guān)于計(jì)算機(jī)性別刻板印象的研究剛剛興起,相關(guān)內(nèi)容不多,深度不足,導(dǎo)致該領(lǐng)域的研究尚存在許多未解決的問題,未來可從以下三個(gè)方面繼續(xù)探討。

        5.1 明確計(jì)算機(jī)性別刻板印象的種類

        綜上可知,計(jì)算機(jī)性別刻板印象可分為兩類:一類是人類對(duì)計(jì)算機(jī)產(chǎn)物持有的性別刻板印象,另一類是計(jì)算機(jī)自身攜帶的性別刻板印象。目前相關(guān)領(lǐng)域的研究沒有對(duì)二者進(jìn)行區(qū)分,但兩者從對(duì)象、產(chǎn)生原因、結(jié)果到干預(yù)的方式都不相同,因此往后研究有必要先明確計(jì)算機(jī)性別刻板印象的種類。

        前者性別刻板印象的載體是人類。現(xiàn)實(shí)社會(huì)中人們對(duì)不同性別存在各種各樣的刻板印象,如認(rèn)為男人更適合當(dāng)領(lǐng)導(dǎo)、 工程師, 女人更適合當(dāng)助理、 護(hù)士等(Koenig et al., 2011; Rabie et al., 2020; Smetackova, 2015)??萍及l(fā)展出的虛擬生命由于存在和人類相似的特征,也成為了性別刻板印象的對(duì)象,例如人們認(rèn)為男機(jī)器人更擅長(zhǎng)數(shù)學(xué),女機(jī)器人更擅長(zhǎng)語言(Eyssel & Hegel, 2012)。但是,虛擬生命并非真實(shí)的生命,拋開現(xiàn)實(shí)的性別刻板印象,計(jì)算機(jī)也不應(yīng)該被認(rèn)為具有能力上的性別差異。后者性別刻板印象的載體是計(jì)算機(jī),有研究人員稱之為AI的性別刻板印象(Greenwald, 2017)。目前AI并不具有真正的智慧,它們只是根據(jù)人類給定的算法和公式計(jì)算出結(jié)果。計(jì)算機(jī)也未擁有人類的意識(shí),因此其攜帶的性別刻板印象其實(shí)只是人類社會(huì)性別刻板印象的一種表現(xiàn)形式。持有性別刻板印象的技術(shù)人員發(fā)明了攜帶性別刻板印象的計(jì)算機(jī),因此干預(yù)時(shí)以計(jì)算機(jī)行業(yè)為主要對(duì)象。

        未來計(jì)算機(jī)性別刻板印象的研究需在明確刻板印象種類的基礎(chǔ)上,進(jìn)一步考察計(jì)算機(jī)性別刻板印象的具體內(nèi)容和干預(yù)方式。

        5.2 拓寬計(jì)算機(jī)性別刻板印象的領(lǐng)域

        兩種不同的計(jì)算機(jī)性別刻板印象可分別進(jìn)行領(lǐng)域拓展。其中,人類對(duì)計(jì)算機(jī)的性別刻板印象研究目前集中于擬人化程度較高的機(jī)器人、語音助手等產(chǎn)品,其他計(jì)算機(jī)產(chǎn)物的研究較少。然而科技產(chǎn)物種類繁多,功能迥異,未來人類對(duì)計(jì)算機(jī)的性別刻板印象應(yīng)該拓展到更多領(lǐng)域。以智能手機(jī)為例,各種各樣的APP是人們社交、工作、學(xué)習(xí)的重要工具,不同的APP是否也具有性別刻板印象?人們?nèi)绾螌?duì)APP進(jìn)行性別分類?APP圖標(biāo)顏色是否會(huì)對(duì)用戶的性別刻板印象產(chǎn)生影響?國內(nèi)常用的支付寶、釘釘、騰訊會(huì)議等與工作相關(guān)的APP圖標(biāo)多數(shù)都是藍(lán)色,美圖秀秀、嗶哩嗶哩、奇跡暖暖等漫畫和修圖APP多為粉紅色。研究表明,早在兒童時(shí)期,人們就把藍(lán)色作為男性顏色,粉色作為女性顏色(Navarro et al., 2014),尤其在中國,粉色與女性聯(lián)系緊密,男性更排斥使用粉色(Li et al., 2020)。手機(jī)APP圖標(biāo)顏色的區(qū)別是否會(huì)影響不同性別群體對(duì)軟件的使用?技術(shù)人員對(duì)圖標(biāo)設(shè)計(jì)和顏色應(yīng)用的標(biāo)準(zhǔn)是什么?粉色APP是否被認(rèn)為更女性化,藍(lán)色APP是否更男性化?未來研究可以使用不同顏色的APP考察人們對(duì)其功能的態(tài)度以及使用意愿。

        目前,領(lǐng)域內(nèi)學(xué)者更多關(guān)注人們對(duì)計(jì)算機(jī)持有的性別刻板印象,而計(jì)算機(jī)也會(huì)對(duì)人類社會(huì)表現(xiàn)出性別刻板印象,且它的存在將直接影響人員選拔及資源分配?,F(xiàn)在,人們逐漸意識(shí)到招聘網(wǎng)站的性別刻板印象影響性別群體的就業(yè),開始鼓勵(lì)不根據(jù)性別做推薦的網(wǎng)站(Wijnhoven & Van Haren, 2021),但是其他領(lǐng)域可能依然使用性別刻板印象的算法并不被發(fā)覺。例如微博、小紅書等社交平臺(tái),新用戶注冊(cè)后系統(tǒng)會(huì)根據(jù)用戶的基本信息推薦關(guān)注的內(nèi)容:它們推薦女性用戶關(guān)注化妝、服飾、幼兒教育等新聞,推薦男性用戶關(guān)注科技、軍事、國情等信息,甚至?xí)詣?dòng)為用戶關(guān)注其推薦內(nèi)容。一方面,這些內(nèi)容是依據(jù)性別刻板印象而推薦給用戶的,不能代表所有群體的想法。另一方面,用戶在知曉或不知曉的情況下關(guān)注了符合自身性別刻板印象的內(nèi)容,長(zhǎng)此以往會(huì)不會(huì)影響用戶的性別刻板印象?這些都是未來值得研究的方向,不僅能擴(kuò)充計(jì)算機(jī)性別刻板印象的研究,還能為干預(yù)現(xiàn)實(shí)社會(huì)的性別刻板印象提供證據(jù)。

        5.3 探索計(jì)算機(jī)性別刻板印象的干預(yù)方法

        計(jì)算機(jī)性別刻板印象是刻板印象的一個(gè)新興研究方向,當(dāng)前的研究較為零散、獨(dú)立,且多關(guān)注刻板印象的內(nèi)容,其干預(yù)方法的實(shí)際應(yīng)用研究較少。關(guān)于現(xiàn)實(shí)社會(huì)的刻板印象,目前發(fā)展出許多成熟的干預(yù)方式,常見的有樹立反刻板印象榜樣、減輕刻板印象威脅情境、教育人們發(fā)展性別觀念等(Croft et al., 2021; Hoa et al., 2019; Mathad et al., 2019; Ovseiko et al., 2020)。計(jì)算機(jī)區(qū)別于現(xiàn)實(shí)的真實(shí)生命,其刻板印象的干預(yù)方式也不同。

        人類對(duì)計(jì)算機(jī)持有性別刻板印象,干預(yù)方式是減輕人們將計(jì)算機(jī)性別化的傾向,避免計(jì)算機(jī)性別化發(fā)展。一是要意識(shí)到計(jì)算機(jī)并非真實(shí)生命,不具備性別屬性,人類社會(huì)的性別刻板印象不適用于計(jì)算機(jī)。二是鑒于日常接觸會(huì)增強(qiáng)人們的刻板印象,計(jì)算機(jī)產(chǎn)品要避免性別化,例如機(jī)器人、語音助手等擬人化產(chǎn)物避免使用性別外形和性別聲音。Tolmeijer等人(2021)發(fā)現(xiàn)將機(jī)器人設(shè)置為性別模糊的聲音后不僅不會(huì)影響用戶使用,反而能有效避免人們將機(jī)器人與特定性別聯(lián)系的傾向。 但是, 干預(yù)方式不應(yīng)只停留在產(chǎn)品的外顯特征(Ahn et al., 2022; Eyssel & Hegel, 2012),未來研究可加強(qiáng)對(duì)計(jì)算機(jī)內(nèi)隱性別特征的干預(yù)。

        計(jì)算機(jī)自身攜帶的性別刻板印象,干預(yù)思路以建立公平算法為主。例如監(jiān)督算法的公平性(Zuiderveen-Borgesius, 2018),招聘軟件以求職者技能識(shí)別為主,計(jì)算機(jī)決策與專家意見相結(jié)合(Wijnhoven & Van Haren, 2021)等。但是,監(jiān)督工具或?qū)<乙矡o法完全避免計(jì)算機(jī)產(chǎn)生性別刻板印象。因?yàn)檫@些監(jiān)督工具的開發(fā)者或領(lǐng)域內(nèi)專家?guī)缀醵际悄行?,性別比例的失衡本身就會(huì)產(chǎn)生性別差異的結(jié)果(Castelvecchi, 2021)。IBM研究員弗朗西斯卡·羅西(Francesca Rossi)也強(qiáng)調(diào)不能依賴偏見檢測(cè)工具,重點(diǎn)還是在于行業(yè)本身的性別平等。因此,干預(yù)方式需要更多樣化,例如降低大眾對(duì)計(jì)算機(jī)的期望,理解計(jì)算機(jī)的不客觀、不準(zhǔn)確(Gupta et al., 2021),為招聘人員提供性別刻板印象培訓(xùn)(Hangartner et al., 2021),讓AI學(xué)習(xí)內(nèi)在規(guī)則而非簡(jiǎn)單的詞匯識(shí)別(Cirillo et al., 2020),計(jì)算機(jī)領(lǐng)域內(nèi)的性別分析 (Tannenbaum et al., 2019)……未來研究可以驗(yàn)證以上干預(yù)方式的有效性,并探索新的干預(yù)措施。

        6 總結(jié)

        現(xiàn)實(shí)社會(huì)中性別刻板印象阻礙了性別平等的發(fā)展, 性別平等成為全世界的棘手難題(Liu et al., 2019; Moya & Moya-Garofano, 2021);虛擬世界也出現(xiàn)了性別刻板印象,并且計(jì)算機(jī)沒有生命,它們的性別刻板印象更不容易被發(fā)覺。但是新近研究不僅展示了虛擬世界也有強(qiáng)烈的性別刻板印象, 還證明了其對(duì)現(xiàn)實(shí)性別刻板印象的影響(Hwang et al., 2019),這拓寬了當(dāng)前刻板印象的研究領(lǐng)域?;诖?,通過整合國內(nèi)外相關(guān)研究,將計(jì)算機(jī)性別刻板印象做了分類:人類對(duì)計(jì)算機(jī)持有的性別刻板印象和計(jì)算機(jī)自身攜帶的性別刻板印象,分類后使人們對(duì)計(jì)算機(jī)性別刻板印象有了新的認(rèn)識(shí)。還梳理了應(yīng)對(duì)不同刻板印象的干預(yù)方式,助益日后該領(lǐng)域的研究,也希望社會(huì)和科技人員重視計(jì)算機(jī)性別刻板印象的消極影響。由于計(jì)算機(jī)沒有人類意識(shí),很多人也不相信它們會(huì)危害現(xiàn)實(shí)社會(huì)。因此,未來需要有更多相關(guān)研究,探索計(jì)算機(jī)性別刻板印象的產(chǎn)生因素、對(duì)現(xiàn)實(shí)社會(huì)的影響以及干預(yù)方式,促進(jìn)虛擬世界和現(xiàn)實(shí)社會(huì)的性別平等,使計(jì)算機(jī)更好地造福人類。

        參考文獻(xiàn)

        佐斌, 戴月娥, 溫芳芳, 高佳, 謝志杰, 何賽飛 (2021). 人如其食:食物性別刻板印象及對(duì)人物評(píng)價(jià)的影響. 心理學(xué)報(bào), 53(3), 259-272.

        Aggarwal, P., & McGill, A. L. (2011). When brands seem human, do humans act like brands? Automatic behavioral priming effects of brand anthropomorphism. Journal of Consumer Research, 39(2), 307-323.

        Ahn, J., Kim, J., & Sung, Y. (2022). The effect of gender stereotypes on artificial intelligence recommendations. Journal of Business Research, 141, 50-59.

        Amaral, L. A. N., Rovira-Asenjo, N., Pietraszkiewicz, A., Sczesny, S., Gumí, T., Guimer, R., & Sales-Pardo, M. (2017). Leader evaluation and team cohesiveness in the process of team development: A matter of gender? PLoS One, 12(10), e0186045.

        Amodio, D. M. (2014). The neuroscience of prejudice and stereotyping. Nature Reviews Neuroscience, 15(10), 670-682.

        Asgari, S., Dasgupta, N., & Stout, J. G. (2012). When do counterstereotypic in group members inspire versus deflate? The effect of successful professional women on young women’s leadership self-concept. Personality & Social Psychology Bulletin, 38(3), 370-383.

        Badura, K. L., Grijalva, E., Newman, D. A., Yan, T. T., & Jeon, G. (2018). Gender and leadership emergence: A meta-analysis and explanatory model. Personnel Psychology, 71(3), 335-367.

        Bailey, A. H., Williams, A., & Cimpian, A. (2022). Based on billions of words on the internet, people=men. Science Advance, 8(13), eabm2463.

        Bamberger, Y. M. (2014). Encouraging girls into science and technology with Feminine Role Model: Does this work?Journal of Science Education and Technology, 23(4), 549-561.

        Beaman, L., Chattopadhyay, R., Duflo, E., Pande, R., & Topalova, P. (2009a). Powerful women: Does exposure reduce bias? The Quarterly Journal of Economics, 124(4), 1497-1540.

        Bergen, H. (2016). ‘I’d blush if I could’: Digital assistants, disembodied cyborgs and the problem ofgender. Word and Text, 6, 95-113.

        Broverman, I. K., Broverman, D. M., Clarkson, F. E., Rosenkrantz, P. S., & Vogel, S. R. (1970). Sex-role stereotypes and clinical judgments of mental health. Journal of Consulting and Clinical Psychology, 34(1), 1-7.

        Caliskan, A., Bryson, J. J., & Narayanan, A. (2017). Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334), 183-186.

        Callaway, C. B., & Sima’An, K. (2005). Wired for speech: How voice activates and advances the human-computer relationship. Computational Linguistics, 32(3), 451-452.

        Castelvecchi, D. (2021). Prestigious AI meeting takes steps to improve ethics of research. Nature, 589(7840), 12-13.

        Chang, R. C. S., Lu, H. P., & Yang, P. (2018). Stereotypes or golden rules? Exploring likable voice traits of social robots as active aging companions for tech-savvy baby boomers in Taiwan. Computers in Human Behavior, 84, 194-210.

        Charlesworth, T. E. S., & Banaji, M. R. (2019). Gender in science, technology, engineering, and mathematics: issues, causes, solutions. Journal of Neuroscience, 39(37), 7228-7243.

        Cheryan, S., Plaut, V. C., Handron, C., & Hudson, L. (2013). The stereotypical computer scientist: Gendered media representations as a barrier to inclusion for women. Sex Roles, 69(1-2), 58-71.

        Chu, C. H., Nyrup, R., Leslie, K., Shi, J., Bianchi, A., Lyn, A., McNicholl, M., Khan, S., Rahimi, S., & Grenier, A. (2022). Digital ageism: Challenges and opportunities in artificial intelligence for older adults. The Gerontologist, gnab167.

        Chung, H., Park, C., Kang, W. S., & Lee, J. (2021). Gender bias in artificial intelligence: Severity prediction at an early stage of COVID-19. Frontiers in Physiology, 12, 778720.

        Cirillo, D., Catuara-Solarz, S., Morey, C., Guney, E., Subirats, L., Mellino, S., ... & Mavridis, N. (2020). Sex and gender differences and biases in artificial intelligence for biomedicine and healthcare. NPJ Digital Medicine, 3, 81.

        Connor, R. (2017). Warmth and competence: A feminist look at power and negotiation. In C. Travis & J. W. White (eds. ). APA Handbook of the Psychology of Women. Princeton: Princeton University Press.

        Croft, A., Atkinson, C., Sandstrom, G., Orbell, S., & Aknin, L. (2021). Loosening the GRIP (Gender Roles Inhibiting Prosociality) to promote gender equality. Personality and Social Psychology Review, 25(1), 66-92.

        Eagly, A. H., & Karau, S. J. (1991). Gender and the emergence of leaders: A meta-analysis. Journal of Personality and Social Psychology, 60(5), 685-710.

        Eagly, A. H., & Karau, S. J. (2002). Role congruity theory of prejudice toward female leaders. Psychological Review, 109(3), 573-598.

        Eckes, T. (2002). Paternalistic and envious gender stereotypes: Testing predictions from the Stereotype Content Model. Sex Roles, 47(3), 99-114.

        Ellemers, N. (2018). Gender stereotypes. Annual Review of Psychology, 69, 275-298.

        Enock, F., Tipper, S., & Over, H. (2021). Intergroup preference, not dehumanization, explains social biases in emotion attribution. Cognition, 216.

        Eyssel, F., & Hegel, F. (2012). (S)he’s got the look: Gender stereotyping of robots 1. Journal of Applied Social Psychology, 42(9).

        Fiske, S. T. (2018). Stereotype content: Warmth and competence endure. Current Directions in Psychological Science, 27(2), 67-73.

        Fiske, S. T., Cuddy, A. J. C., Glick, P., & Xu, J. (2002). A model of (often mixed) stereotype content: Competence and warmth respectively follow from perceived status and competition. Journal of Personality and Social Psychology, 82(6), 878-902.

        Foos, F., & Gilardi, F. (2019). Does exposure to Gender Role Models increase women’s political ambition? A field experiment with politicians. Journal of Experimental Political Science, 7(3), 157-166.

        Gentzel, M. (2021). Biased face recognition technology used by government: A problem for liberal democracy. Philosophy & Technology, 34(4), 1639-1663.

        González-González, C. S., Gil-Iranzo, R. M., & Paderewski-Rodríguez, P. (2020). Human-robot interaction and sexbots: A systematic literature review. Sensors (Basel), 21(1).

        Greenwald, A. G. (2017). An AI stereotype catcher. Science, 356(6334), 133-134.

        Gupta, M., Parra, C. M., & Dennehy, D. (2021). Questioning racial and gender bias in AI-based recommendations: Do espoused national cultural values matter?Information Systems Frontiers, 1-17.

        Hangartner, D., Kopp, D., & Siegenthaler, M. (2021). Monitoring hiring discrimination through online recruitment platforms. Nature, 589(7843), 572-576.

        Hentschel, T., Heilman, M. E., & Peus, C. V. (2019). The multiple dimensions of gender stereotypes: A current look at men’s and women’s characterizations of others and themselves. Frontiers in Psychology, 10(11).

        Himmelstein, G., Bates, D., & Zhou, L. (2022). Examination of stigmatizing language in the electronic health record. JAMA Network Open, 5(1), e2144967.

        Hoa, N. T., Thuong, N. T. T., Clapham, H. E., Thu, T. T. A., Kestelyn, E., & Thwaites, C. L. (2019). Increasing women’s leadership in science in Ho Chi Minh City. The Lancet, 393(10171), 523-524.

        Howard, A., & Kennedy, M. (2020). Robots are not immune to bias and injustice. Science Robotics, 5(48), eabf1364.

        Hwang, G., Lee, J., Oh, C. Y., &; Lee, J. (2019). It sounds like a woman: Exploring gender stereotypes in South Korean voice assistants. Extended Abstracts of the 2019 CHI Conference.

        Kraus, M., Kraus, J. M., Baumann, M. R. K., & Minker, W. (2018). Effects of gender stereotypes on trust and likability in spoken human-robot interaction. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan. European Language Resources Association (ELRA).

        Koenig, A. M., Eagly, A. H., Mitchell, A. A., & Ristikari, T. (2011). Are leader stereotypes masculine? A meta-analysis of three research paradigms. Psychological Bulletin, 137(4), 616-642.

        Kubu, C. S. (2018). Who does she think she is? Women, leadership and the ‘B’(ias) word. Clinical Neuropsychologist, 32(2), 235-251.

        Kuhl, P. K., Lim, S. S., Guerriero, S., & Damme, D. V. (2019). Developing minds in the digital age: Towards a science of learning for 21st century education,

        Paris: OECD Publishing.

        Latimer, J., Cerise, S., Ovseiko, P. V., Rathborne, J. M., Billiards, S. S., & El-Adhami, W. (2019). Australia’s strategy to achieve gender equality in STEM. The Lancet, 393(10171), 524-526.

        Li, Y., Du, J., Song, Q., Wu, S., & Liu, L. (2020). An ERP study of the temporal course of gender-colorstroop effect. Frontiers in Psychology, 11, 613196.

        Liu, E., Iwelunmor, J., Gabagaya, G., Anyasi, H., Leyton, A., Goraleski, K. A., ... & Tucker, J. D. (2019). Women’s global health leadership in LMICs. The Lancet Global Health, 7(9), e1172-e1173.

        Loftus, T. J., & Cochran, A. (2021). Artificial intelligence and gender bias in hiring surgeons andbeyond. The American Journal of Surgery, 222(6), 1050.

        Mark, R. K., & Han, E. C. (2019). I’d blush if I could. Berlin: EQUALS.

        Master, A., & Meltzoff, A. N. (2020). Cultural stereotypes and sense of belonging contribute to gender gaps in STEM. International Journal of Gender, Science and Technology, 12(1), 152-198.

        Mathad, J. S., Reif, L. K., Seo, G., Walsh, K. F., Mcnairy, M. L., Lee, M. H., ... & Deschamps, M. M. (2019). Female global health leadership: Data-driven approaches to close the gender gap. The Lancet, 393(10171), 521-523.

        Morgenroth, T., Kirby, T. A., Ryan, M. K., & Sudkamper, A. (2020). The who, when, and why of the glass cliff phenomenon: A meta-analysis of appointments to precarious leadership positions. Psychological Bulletin, 146(9), 797-829.

        Moya, M., & Moya-Garofano, A. (2021). Evolution of gender stereotypes in Spain: From 1985 to 2018. Psicothema, 33(1), 53-59.

        Nass, C., Steuer, J., & Tauber, E. R. (1994). Computers are social actors. Conference on Human Factors in Computing Systems, CHI 1994, Boston, Massachusetts, USA, April 24-28, 1994, Conference Companion. DBLP.

        O’Reilly-Shah, V., Gentry, K. R., Walters, A. M., Zivot, J., & Tighe, P. J. (2020). Bias and ethical considerations in machine learning and the automation of perioperative risk assessment. British Journal of Anaesthesia, 125(6), 843-846.

        Ovseiko, P. V., Taylor, M., Gilligan, R. E., Birks, J., Elhussein, L., & Rogers, M., et al. (2020). Effect of Athena SWAN funding incentives on women’s research leadership. British Medical Journal, 371, m3975.

        Rabie, T., Rossouw, L., & Machobane, B. (2020). Exploring occupational gender-role stereotypes of male nurses: A South African study. International Journal of Nursing Practice, e12890.

        Schein, V. E. (1973). The relationship between sex role stereotypes and requisite management characteristics. Journal of Applied Psychology, 57(2), 95-100.

        Sczesny, S., Nater, C., & Eagly, A. (2019). Agency and communion: Their implications for gender stereotypes and gender identities. In (pp.103-116). New York: Routledge Press.

        Simon, M. (2019, March 11). The genderless digital voice the world needs right now. Wired. Retrieved May 1, 2022, from https://www.wired.com/story/the-genderless-digital-voice-the-world-needs-right-now/

        Smetackova, I. (2015). Gender stereotypes, performance and identification with math. Procedia-Social and Behavioral Sciences, 190, 211-219.

        Sorokowski, P., Puts, D., Johnson, J., ókiewicz, O., Oleszkiewicz, A., Sorokowska, A., Kowal, M., Borkowska, B., & Pisanski, K. (2019). Voice of authority: Professionals lower their vocal frequencies when giving expert advice. Journal of Nonverbal Behavior, 43(2), 257-269.

        Stapel, D. A., & Lindenberg, S. (2011). Coping with chaos: How disordered contexts promote stereotyping and discrimination. Science, 332(6026), 251-253.

        Tannenbaum, C., Ellis, R. P., Eyssel, F., Zou, J., & Schiebinger, L. (2019). Sex and gender analysis improves science and engineering. Nature, 575(7781), 137-146.

        Tolmeijer, S., Zierau, N., Janson, A., Wahdatehagh, J. S., Leimeister, J. M. M., & Bernstein, A. (2021). Female by default? Exploring the effect of voice assistant gender and pitch on trait and trust attribution. CHI EA’21: Extended Abstracts of the 2021 CHI Conference on Human Factors in Computing Systems.

        Weidner, N. U. (2020). Artificial Intelligence, machine learning, and gender bias. In The international encyclopedia of gender, media, and communication (pp.1-5). Nil Uzun Weidner: Rutgers University press.

        Wen, F., Zuo, B., Ma, S., Xu, Y., Coley, J. D., & Wang, Y. (2020). Do we see masculine faces as competent and feminine faces as warm? Effects of sexual dimorphism on facial perception. Evolutionary Psychology, 18(4), 1474704920980642.

        White, J. B., & Gardner, W. L. (2009). Think women, think warm: Stereotype content activation in women with a salient gender identity, using a modified stroop task. Sex Roles, 60(3), 247-260.

        Wijnhoven, F., & Van Haren, J. (2021). Search Engine Gender Bias. Frontiers in Big Data, 4.

        Zuiderveen-Borgesius, F. (2018). Discrimination, artificial intelligence, and algorithmic decision-making. Council of Europe, Directorate General of Democracy.

        Classifications and Causes of Gender Stereotypes in Computers

        CAI Xingying; YANG Lixian

        (College of Psychology, Fujian Normal University,? Fuzhou 350108, China)

        Abstract

        Gender stereotypes are fixed ideas about gender groups. They have attracted worldwide attention, because they will produce negative impacts on gender equality in society. In the past, related researches of gender stereotypes focused on human beings. With the advances of science and technology, computers have also emerged gender stereotypes, which are often ignored by people. Based on these, we distinguish two kinds of gender stereotypes in computers and then expound the previous findings, causes, and methods of intervention. Future researches can continue to explore other fields of gender stereotypes in computers, verify the effectiveness of interventions, promote gender equality in real society and the virtual world on the basis of classification.

        Key words: gender stereotype; computer; Artificial Intelligence; STEM gender stereotype

        通訊作者: 楊麗嫻, E-mail: ylixian@126.com

        猜你喜歡
        計(jì)算機(jī)人工智能
        我校新增“人工智能”本科專業(yè)
        計(jì)算機(jī)操作系統(tǒng)
        穿裙子的“計(jì)算機(jī)”
        基于計(jì)算機(jī)自然語言處理的機(jī)器翻譯技術(shù)應(yīng)用與簡(jiǎn)介
        科技傳播(2019年22期)2020-01-14 03:06:34
        計(jì)算機(jī)多媒體技術(shù)應(yīng)用初探
        科技傳播(2019年22期)2020-01-14 03:06:30
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        信息系統(tǒng)審計(jì)中計(jì)算機(jī)審計(jì)的應(yīng)用
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        伊人久久网国产伊人| 欧美最猛性xxxx| 色天使综合婷婷国产日韩av| 九九久久精品国产| 亚洲日韩AV无码美腿丝袜| 日韩国产精品一区二区三区| 国产精久久一区二区三区| 综合久久给合久久狠狠狠97色| 超级碰碰人妻中文字幕| 日本不卡一区二区三区久久精品| 精品久久久久久久无码人妻热| 国产午夜福利精品久久2021| 亚洲无码vr| 二区三区日本高清视频| 人妻夜夜爽天天爽三区麻豆av网站 | 中文字幕视频一区懂色| 国产成人无码a在线观看不卡| 越南女子杂交内射bbwxz| 午夜不卡亚洲视频| 国产人妻久久精品二区三区老狼 | 玖玖资源站亚洲最大的网站| 人妻丰满熟妇无码区免费| 亚洲羞羞视频| 日本人妻伦理片在线观看| 一区二区三区最新中文字幕| 国产精品无码av天天爽| 精品国产福利片在线观看| 日韩一级137片内射视频播放| 国内少妇毛片视频| 久久亚洲av永久无码精品| 精品一区二区中文字幕| 91久久精品国产综合另类专区| 亚洲色欲色欲综合网站| 69天堂国产在线精品观看| 91久久精品一区二区| 国产ww久久久久久久久久| 久草午夜视频| 男女一区视频在线观看| 精品久久久久久久久午夜福利| 欧韩视频一区二区无码| 国产精品毛片av一区二区三区|