亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        IEEE人工智能社會(huì)倫理規(guī)范實(shí)施機(jī)制研究

        2021-09-24 09:54:30黃國(guó)彬黃戀陳麗
        情報(bào)工程 2021年4期
        關(guān)鍵詞:倫理規(guī)范人工智能

        黃國(guó)彬 黃戀 陳麗

        北京師范大學(xué)政府管理學(xué)院 北京 100875

        引言

        人工智能技術(shù)在各行業(yè)領(lǐng)域都獲得了研發(fā)與應(yīng)用的探索[1-4]。隨著其相關(guān)實(shí)踐力度的加大,為了維護(hù)人類利益,使人工智能技術(shù)在合乎社會(huì)倫理道德的前提下更好地服務(wù)人類社會(huì),很多機(jī)構(gòu)紛紛建立了其各自的人工智能社會(huì)倫理規(guī)范。不同機(jī)構(gòu)制定的人工智能社會(huì)倫理規(guī)范各有其合理性和現(xiàn)實(shí)性,而就其如何具體落實(shí)到人類社會(huì),能夠在真正意義上處理人與智能技術(shù)的關(guān)系則需要建立有效的實(shí)施機(jī)制。

        針對(duì)IEEE 標(biāo)準(zhǔn)協(xié)會(huì) (IEEE Standards Association) 在2019年發(fā)布的自動(dòng)與智能系統(tǒng)領(lǐng)域倫理規(guī)范設(shè)計(jì)(Ethically Aligned Design,EAD)進(jìn)行剖析,并就其可適用于各行業(yè)的實(shí)施機(jī)制進(jìn)行研究和提煉,將能夠?yàn)椴煌I(lǐng)域人工智能技術(shù)社會(huì)倫理規(guī)范的落實(shí)提供參考,有助于積極推動(dòng)人工智能社會(huì)倫理規(guī)范發(fā)揮現(xiàn)實(shí)作用。

        1 研究現(xiàn)狀

        1.1 國(guó)內(nèi)研究現(xiàn)狀

        對(duì)CNKI以“人工智能”并“倫理道德”或“社會(huì)倫理”為主題詞進(jìn)行檢索,一共獲得目標(biāo)文獻(xiàn)共計(jì)198篇。從學(xué)科分布來(lái)看,除自動(dòng)化技術(shù)相關(guān)的學(xué)科領(lǐng)域外,有關(guān)人工智能社會(huì)倫理在現(xiàn)實(shí)應(yīng)用方面的研究討論主要集中在法律、商業(yè)、教育三大領(lǐng)域,這些具體問(wèn)題的提出和應(yīng)對(duì)建議主要基于教學(xué)經(jīng)驗(yàn)與文獻(xiàn)基礎(chǔ)。教育領(lǐng)域以劉斌[5]、雷曉維[6]等人的研究為代表,前者重點(diǎn)探討教育領(lǐng)域的主體在智能化進(jìn)程中所需要形成的智能教育素養(yǎng),并從主體自身與外部政策、系統(tǒng)和各方職能部門四方面探討如何具體提升該素養(yǎng);后者則主要針對(duì)整個(gè)教育過(guò)程,從評(píng)價(jià)、管理、保障等方面探討人工智能在該領(lǐng)域的落實(shí)方法。商業(yè)領(lǐng)域以張慶龍[7]為代表的學(xué)者主要探討在智能財(cái)務(wù)方面的技術(shù)應(yīng)用所帶來(lái)的系列變革,并提出具體實(shí)施時(shí)應(yīng)重點(diǎn)考慮隱私安全、數(shù)據(jù)保護(hù)與責(zé)任劃分問(wèn)題。而法律領(lǐng)域以羅洪洋等[8]為代表,主要探討了在整個(gè)司法過(guò)程中,人工智能技術(shù)的定位與風(fēng)險(xiǎn)應(yīng)對(duì)。對(duì)目標(biāo)文獻(xiàn)進(jìn)行分析時(shí)發(fā)現(xiàn),國(guó)內(nèi)學(xué)者們?cè)诮Y(jié)合社會(huì)倫理對(duì)現(xiàn)實(shí)問(wèn)題作探討時(shí),常著眼于某一行業(yè)領(lǐng)域人工智能技術(shù)的融合路徑,基于此,再對(duì)技術(shù)應(yīng)用過(guò)程中的潛在倫理問(wèn)題進(jìn)行挖掘。

        就其中的倫理規(guī)范問(wèn)題而言,由于國(guó)內(nèi)如今權(quán)威機(jī)構(gòu)出臺(tái)的有關(guān)人工智能社會(huì)倫理規(guī)范的政策標(biāo)準(zhǔn)文本較少,主要集中在生物領(lǐng)域,專門針對(duì)國(guó)內(nèi)某一政策標(biāo)準(zhǔn)如何實(shí)施的研究文章還基本空白,一些學(xué)者如李倫等[9]、劉偉等[10]將人工智能社會(huì)倫理本身看作研究點(diǎn),認(rèn)為社會(huì)倫理只是人工智能倫理研究的一部分,社會(huì)倫理的實(shí)施應(yīng)落腳到人機(jī)關(guān)系優(yōu)化上,最終為維護(hù)社會(huì)穩(wěn)定、公平、正義服務(wù)。而如張世龍[11]等學(xué)者則在綜合考察科技創(chuàng)新與社會(huì)倫理道德間的沖突問(wèn)題后,提出從信息溝通、教育宣傳、法律、責(zé)任、約束等五個(gè)方面建立協(xié)調(diào)機(jī)制。更有閆坤如等[12]學(xué)者針對(duì)人工智能的責(zé)任倫理、風(fēng)險(xiǎn)倫理等一系列問(wèn)題提出籠統(tǒng)的解決方案。這類研究從宏觀層面探討了倫理實(shí)施路徑,但其主體并未涉及到社會(huì)倫理規(guī)范。國(guó)內(nèi)學(xué)者們關(guān)注的話題實(shí)則還處于人工智能社會(huì)倫理規(guī)范構(gòu)建層面的探討,內(nèi)容方面主要以宏觀政策的方向性建議為主要研究點(diǎn)。如段偉文[13]的研究認(rèn)為,應(yīng)該立足人機(jī)關(guān)系,開展對(duì)人工智能的價(jià)值校準(zhǔn)和倫理調(diào)試。以醫(yī)學(xué)領(lǐng)域郭曉斐等[14]的研究為例,其就人工智能在醫(yī)療領(lǐng)域可能面臨的系列法律問(wèn)題為切入點(diǎn),認(rèn)為行業(yè)應(yīng)聯(lián)合多領(lǐng)域?qū)<夜餐闪⑷斯ぶ悄軅惱砦瘑T會(huì),對(duì)智能技術(shù)從倫理性和安全性等方面進(jìn)行評(píng)估。這些研究中對(duì)于衡量評(píng)估指標(biāo)并未涉及,但已經(jīng)在建設(shè)層面有所探討。

        1.2 國(guó)外研究現(xiàn)狀

        對(duì)web of science以“AI ethics”與“standard”或“principle”為主題詞進(jìn)行檢索,獲得目標(biāo)文獻(xiàn)共計(jì)209篇,其中,大部分目標(biāo)文獻(xiàn)都處于人工智能倫理規(guī)范的制定層面。與國(guó)內(nèi)存在差異的是,除自動(dòng)化技術(shù)相關(guān)領(lǐng)域外,有關(guān)人工智能社會(huì)倫理在現(xiàn)實(shí)應(yīng)用方面的研究討論的學(xué)科分布主要集中在醫(yī)學(xué)和法律領(lǐng)域。法律領(lǐng)域中以Choong-Kee[15]為代表的學(xué)者,研究某一行業(yè)如汽車行業(yè)中自動(dòng)駕駛的人工智能法律責(zé)任明確問(wèn)題;而還有以Luetge和Poszler[16]為代表的學(xué)者則對(duì)某行業(yè)整體已發(fā)布的完整的人工智能社會(huì)倫理規(guī)范進(jìn)行注釋和進(jìn)一步說(shuō)明,試圖通過(guò)已有的準(zhǔn)則規(guī)范來(lái)幫助應(yīng)用主體制定行業(yè)政策。醫(yī)學(xué)領(lǐng)域中以Cecilia等[17]為代表的學(xué)者主要關(guān)注當(dāng)新的技術(shù)手段被引入治療應(yīng)用時(shí)所應(yīng)遵循的道德規(guī)范,其也探討了在實(shí)施過(guò)程中相關(guān)道德規(guī)范的局限性和挑戰(zhàn);一些學(xué)者如Felicia和Amitabha[18]在內(nèi)則重點(diǎn)探討具體的醫(yī)療環(huán)節(jié)如何遵循社會(huì)倫理道德規(guī)范對(duì)人工智能和人類的職能進(jìn)行分工。存在一些文獻(xiàn)處于兩領(lǐng)域交叉地帶,如以Jean和Emily[19]為代表的學(xué)者就基于人工智能在應(yīng)用到醫(yī)療衛(wèi)生行業(yè)時(shí)所涉及的數(shù)據(jù)治理相關(guān)法律責(zé)任問(wèn)題進(jìn)行了研究。

        可以看出國(guó)外學(xué)者除了在探討人工智能在不同行業(yè)領(lǐng)域的融合路徑時(shí)進(jìn)一步挖掘其具體落實(shí)的問(wèn)題,也有就某一已發(fā)布的規(guī)范進(jìn)行實(shí)踐層面的探討。然而一般涉及實(shí)踐層面時(shí),學(xué)者們主要是對(duì)現(xiàn)實(shí)中出現(xiàn)的問(wèn)題提出應(yīng)對(duì)建議或作應(yīng)對(duì)經(jīng)驗(yàn)總結(jié),并未能從已發(fā)布的人工智能社會(huì)倫理規(guī)范中挖掘出一套與實(shí)際應(yīng)用相適應(yīng)的實(shí)施機(jī)制。如Philip[20]在研究建筑行業(yè)應(yīng)對(duì)人工智能的方法時(shí),就結(jié)合了機(jī)器道德指南,首先對(duì)問(wèn)題進(jìn)行了明確,再?gòu)牟煌黧w的角度分別總結(jié)其潛在的具體有效方法,該方法是描述性的,未能形成一套機(jī)制;而Luciano和Josh等[21]在Atomium的EISMD計(jì)劃中則提出了五項(xiàng)人工智能倫理原則,為了支持該原則的使用,其還有針對(duì)地設(shè)計(jì)了20條具體實(shí)施建議,并在國(guó)家政府層面對(duì)實(shí)施主體進(jìn)行了限定,但該程度依然沒能達(dá)到實(shí)施機(jī)制的地步。因此,目前從各種人工智能社會(huì)倫理規(guī)范中挖掘出有效的實(shí)施機(jī)制將彌補(bǔ)該缺憾,并從現(xiàn)實(shí)意義角度推動(dòng)學(xué)界和業(yè)界對(duì)規(guī)范的研究和制定。

        2 實(shí)施機(jī)制

        從時(shí)間階段來(lái)看,實(shí)施機(jī)制的內(nèi)容主要可分為準(zhǔn)備階段、實(shí)施階段、檢驗(yàn)階段三個(gè)模塊。其中,準(zhǔn)備階段主要凸顯實(shí)施工作開展前所需要的鋪墊,包括從社會(huì)文化氛圍角度奠定實(shí)施基礎(chǔ),并提前設(shè)計(jì)好目標(biāo)定位;而在實(shí)施過(guò)程中,工作主要分兩方面開展,一是垂直將人工智能倫理融入項(xiàng)目流程的各個(gè)環(huán)節(jié)中,二是對(duì)各個(gè)環(huán)節(jié)進(jìn)行監(jiān)督約束。最后,實(shí)施情況還需要檢驗(yàn),因此在檢驗(yàn)階段,給出了驗(yàn)證其社會(huì)倫理規(guī)范實(shí)施程度的參照標(biāo)準(zhǔn)。

        結(jié)合規(guī)范內(nèi)容來(lái)說(shuō),IEEE對(duì)人工智能所應(yīng)該遵循的社會(huì)倫理規(guī)范進(jìn)行了描述[22],主要從八個(gè)角度對(duì)人工智能從創(chuàng)造到使用進(jìn)行了限制,其內(nèi)容如表1所示。在具體的實(shí)施中,IEEE將尊重人權(quán)作為貫徹始終的核心立足點(diǎn),將為人類發(fā)展謀求利益作為實(shí)施人工智能社會(huì)倫理規(guī)范的目標(biāo),將能力作為執(zhí)行社會(huì)倫理規(guī)范的必要條件。而為了確保人工智能有關(guān)項(xiàng)目在其項(xiàng)目進(jìn)程中確實(shí)落實(shí)了社會(huì)倫理,主要從數(shù)據(jù)力、有效性、透明度、問(wèn)責(zé)、濫用意識(shí)等方面作進(jìn)一步細(xì)化。

        表1 IEEE人工智能社會(huì)倫理規(guī)范準(zhǔn)則

        2.1 準(zhǔn)備階段

        在具體項(xiàng)目中落實(shí)人工智能倫理規(guī)范并非一蹴而就的,首先要進(jìn)行的工作是確保社會(huì)能夠?qū)?shí)施工作的開展提供支持,這就要求在現(xiàn)實(shí)社會(huì)中嵌入人工智能倫理規(guī)范的概念,讓人們有足夠的意識(shí)在開展各類人工智能技術(shù)相關(guān)的工作項(xiàng)目時(shí)能秉承社會(huì)倫理規(guī)范,并以之為指導(dǎo)工作目標(biāo)的重要思想。

        2.2.1 實(shí)施基礎(chǔ)

        確保社會(huì)能夠?yàn)榫唧w項(xiàng)目中倫理規(guī)范實(shí)施工作的開展提供支持,需要在整個(gè)社會(huì)營(yíng)造人工智能社會(huì)倫理規(guī)范的文化氛圍,主要分兩步進(jìn)行[23]。

        (1)向人們介紹關(guān)于人工智能社會(huì)倫理的新概念

        介紹這一概念的有效方法需要對(duì)某一項(xiàng)目上不同工作層次的工作人員提出能力要求。對(duì)于基礎(chǔ)層而言,一般要求其能力可提供直接支持,最好是具備開展意識(shí)宣傳的能力。對(duì)于領(lǐng)導(dǎo)層而言,一般要求其積極推動(dòng)、參與或負(fù)責(zé)以倫理為導(dǎo)向的人工智能發(fā)展戰(zhàn)略的末端整合,以便在經(jīng)濟(jì)利益與技術(shù)為社會(huì)帶來(lái)的變革之間取得平衡。

        (2)幫助人們?cè)诟髯缘墓ぷ鳝h(huán)境中理解人工智能社會(huì)倫理

        這要求在項(xiàng)目的不同工作領(lǐng)域中,找到能夠幫助推進(jìn)人工智能社會(huì)倫理規(guī)范的關(guān)鍵人物或宣傳者,通過(guò)讓這些特定人員戰(zhàn)略性地分散從而擴(kuò)散信息。

        在沒有明確戰(zhàn)略要求的情況下,可能有些人員在從事人工智能實(shí)踐時(shí)已經(jīng)自覺踐行了符合其個(gè)人道德標(biāo)準(zhǔn)的社會(huì)倫理規(guī)范。因此,在項(xiàng)目的創(chuàng)建或進(jìn)行人力整合時(shí),提升這些人員的話語(yǔ)權(quán)是至關(guān)重要的。

        2.1.2 目標(biāo)定位

        要將人工智能社會(huì)倫理規(guī)范納入具體項(xiàng)目工作中,需要在工作的指導(dǎo)思想中嵌入相關(guān)內(nèi)容,在此基礎(chǔ)上去考慮諸多方面的公眾利益,并以之為倫理規(guī)范的實(shí)施目標(biāo)。具體說(shuō)來(lái),從宏觀層面來(lái)看,在實(shí)施過(guò)程中應(yīng)該要解決以下方面的問(wèn)題[24]。

        (1)確保人工智能規(guī)范能支持、促進(jìn)國(guó)際公認(rèn)的法律政策。

        涉及人工智能社會(huì)倫理的國(guó)家政策和法規(guī)應(yīng)以權(quán)利導(dǎo)向?yàn)榛A(chǔ),應(yīng)該從一定程度上為人權(quán)標(biāo)準(zhǔn)提供國(guó)際公認(rèn)的法律框架,既能考慮到技術(shù)對(duì)個(gè)人的影響,又能解決公平和歧視方面的問(wèn)題。

        (2)發(fā)展人工智能及倫理方面的專業(yè)知識(shí)

        促進(jìn)在技術(shù)和其他方面的技能發(fā)展,進(jìn)一步提高決策者、監(jiān)管者等就這些人工智能技術(shù)的各個(gè)方面提出明智建議和決策的能力。有效管理人工智能及相關(guān)技術(shù)需要特定人員來(lái)了解并能夠分析技術(shù)、政策目標(biāo)和整體社會(huì)價(jià)值觀之間的相互作用。足夠深度和廣度的知識(shí)背景將有助于確保社會(huì)倫理規(guī)范在成功支持實(shí)踐創(chuàng)新的同時(shí)、還能堅(jiān)持社會(huì)基本原則,并能夠保護(hù)公眾安全。

        (3)確保倫理規(guī)范是人工智能項(xiàng)目的核心部分

        支持人工智能研究與開發(fā)工作,需要重點(diǎn)關(guān)注人工智能的倫理影響。為了從這些新技術(shù)中獲益,同時(shí)確保它們滿足社會(huì)需求和價(jià)值觀,各界應(yīng)積極參與支持相關(guān)的研發(fā)工作。人工智可通過(guò)一系列技術(shù)來(lái)改善社會(huì),如通過(guò)在物流、交通、醫(yī)療、法律和環(huán)境等方面的決策支持來(lái)提高社會(huì)生活質(zhì)量,或減少社會(huì)事故概率等。為了確保對(duì)個(gè)人、社會(huì)和項(xiàng)目產(chǎn)生積極影響,應(yīng)該在研發(fā)、采購(gòu)、使用、評(píng)估等各個(gè)環(huán)節(jié)特別注重人工智能的倫理發(fā)展和部署。在這些環(huán)節(jié)中,無(wú)論國(guó)家、企業(yè)、個(gè)人都應(yīng)該衡量的重要標(biāo)準(zhǔn)包括,從人工智能技術(shù)獲得的社會(huì)利益,這些技術(shù)涉及的倫理因素,以及使用人工智能增加或減少的風(fēng)險(xiǎn)等。

        (4)確保人工智能技術(shù)的安全性和責(zé)任性

        各行業(yè)在確保人工智能社會(huì)倫理規(guī)范適應(yīng)其工作的同時(shí),還應(yīng)該解決人工智能算法的透明度、可解釋性、可預(yù)測(cè)性、偏差和責(zé)任性,以及風(fēng)險(xiǎn)管理、隱私安全、數(shù)據(jù)保護(hù)措施等問(wèn)題。合適的解決方法取決于具體情況,應(yīng)通過(guò)以人權(quán)為基礎(chǔ)、以人類福祉為主要目標(biāo)的策略來(lái)制定。對(duì)此,IEEE建議開展人工智能項(xiàng)目時(shí)采用一套包括了學(xué)界、業(yè)界以及政府相關(guān)部門等人工智能利益相關(guān)方的知情程序,用以協(xié)調(diào)其人工智能社會(huì)倫理規(guī)范的具體工作,以解決與人工智能的治理和安全部署有關(guān)的問(wèn)題。

        2.2 實(shí)施階段

        2.2.1 實(shí)施流程

        (1)樹立需求意識(shí)

        在人工智能相關(guān)項(xiàng)目工作中的為工作人員樹立對(duì)社會(huì)倫理規(guī)范的需求意識(shí)是至關(guān)重要的第一步。當(dāng)項(xiàng)目工作人員具備對(duì)倫理規(guī)范的認(rèn)識(shí)和需求以后,項(xiàng)目團(tuán)隊(duì)的基礎(chǔ)層和領(lǐng)導(dǎo)層就可以著手將倫理規(guī)范意識(shí)反映并嵌入到項(xiàng)目的工作流程中。IEEE就樹立工作人員對(duì)社會(huì)倫理規(guī)范的需求意識(shí)這一步提出如下可行的做法,大致說(shuō)來(lái)主要是通過(guò)人員交流來(lái)落實(shí),如:利用人工智能社會(huì)倫理規(guī)范開展網(wǎng)絡(luò)研討會(huì),并在會(huì)后組織人員進(jìn)行問(wèn)答;把人工智能社會(huì)倫理規(guī)范交給項(xiàng)目領(lǐng)導(dǎo)層或者關(guān)鍵技術(shù)的設(shè)計(jì)負(fù)責(zé)人;確保引用符合人工智能社會(huì)倫理規(guī)范的數(shù)據(jù)和研究等。

        (2)建立核心團(tuán)隊(duì)

        確定一個(gè)跨學(xué)科的多樣化團(tuán)隊(duì),并向他們提供項(xiàng)目組織內(nèi)的額外資源和權(quán)限。這要求確定關(guān)鍵的利益相關(guān)者和天生為特定團(tuán)隊(duì)宣傳的人,以企業(yè)為例,這樣的角色通常由產(chǎn)品經(jīng)理?yè)?dān)任。此外,還需要確定關(guān)鍵決策者和團(tuán)隊(duì)領(lǐng)導(dǎo),避免在倫理規(guī)范的具體實(shí)施過(guò)程中出現(xiàn)將之排除在外的可能。對(duì)于技術(shù)核心人員而言,需要從一開始就明確社會(huì)倫理規(guī)范的價(jià)值,并將其作為自身角色的基本要求,使得其從意識(shí)階段進(jìn)入規(guī)范工作的行動(dòng)階段。

        (3)修正項(xiàng)目進(jìn)程

        基于目前正開展的項(xiàng)目所要依據(jù)的核心價(jià)值觀,對(duì)能夠產(chǎn)生較大影響的社會(huì)倫理規(guī)范所產(chǎn)生的具體執(zhí)行細(xì)則進(jìn)行評(píng)估。而在項(xiàng)目階段之初,不僅應(yīng)該確保利益相關(guān)者在人工智能的潛在風(fēng)險(xiǎn)和利益上保持一致,還應(yīng)該創(chuàng)建一個(gè)風(fēng)險(xiǎn)分類清單,以便適當(dāng)?shù)貎?yōu)先考慮和處理已經(jīng)確定的風(fēng)險(xiǎn)。為了更好的項(xiàng)目成果,在涉及到人工智能相關(guān)的整個(gè)項(xiàng)目階段需要不斷尋求主題領(lǐng)域的專家建議以不斷修正項(xiàng)目進(jìn)程中的大小決策,這些建議將基于人工智能社會(huì)倫理規(guī)范,落腳到人工智能的開發(fā)、采購(gòu)、使用等諸個(gè)環(huán)節(jié)。此外,還應(yīng)該確保對(duì)受眾有足夠了解,并能在符合社會(huì)倫理規(guī)范的背景下向受眾展現(xiàn)人工智能的價(jià)值,例如預(yù)先確定基于公平原則的人工智能優(yōu)先級(jí),防止代表性不足的受眾(包括殘疾人等)受到難以衡量的影響;或確保項(xiàng)目目標(biāo)受眾的感知或行為是具備可操作性的,對(duì)于其可能出現(xiàn)的潛在問(wèn)題,項(xiàng)目方應(yīng)該設(shè)計(jì)好應(yīng)對(duì)框架,幫助規(guī)避意外的公平、歧視等問(wèn)題。

        (4)溝通協(xié)調(diào)各方

        與目前正在為項(xiàng)目設(shè)計(jì)人工智能相關(guān)技術(shù)的人員溝通,并聯(lián)系項(xiàng)目咨詢方、擁簇方、宣傳方、領(lǐng)導(dǎo)層等,在各方溝通渠道順暢的情況下就項(xiàng)目管理問(wèn)題和涉及的倫理問(wèn)題進(jìn)行討論,以避免意外的負(fù)面影響,促進(jìn)這一人工智能相關(guān)的項(xiàng)目建立信任度和透明度。

        (5)記錄工作進(jìn)度

        IEEE建議在項(xiàng)目工作進(jìn)度上應(yīng)該記錄的內(nèi)容包括:①項(xiàng)目目標(biāo)、受眾和預(yù)期用途。②項(xiàng)目團(tuán)隊(duì)成員,包括過(guò)去和現(xiàn)在的。③做出的關(guān)鍵決策和達(dá)到的里程碑。④模型。⑤數(shù)據(jù)集。⑥記錄非目標(biāo)即誰(shuí)不應(yīng)使用項(xiàng)目成果,以及確定其不應(yīng)被用于某些場(chǎng)合的用例。⑦拖延計(jì)劃預(yù)期的意外影響。⑧按分類法評(píng)級(jí)分類的風(fēng)險(xiǎn)。⑨倫理審查或討論的注釋。⑩受眾的反饋。?項(xiàng)目進(jìn)程中出現(xiàn)的大小事件。

        (6)組織倫理規(guī)范

        就倫理規(guī)范在實(shí)施過(guò)程中的組織問(wèn)題而言,IEEE認(rèn)為首先應(yīng)從推廣角度切入。其建議開展宣傳活動(dòng),提高人工智能在社會(huì)倫理方面的透明度,鼓勵(lì)圍繞社會(huì)倫理規(guī)范進(jìn)行對(duì)話,分享經(jīng)驗(yàn)教訓(xùn)。從資源配置角度看,應(yīng)在人員技能方面制定并實(shí)施倫理方面的技能培養(yǎng)計(jì)劃;與領(lǐng)導(dǎo)層合作,確保道德規(guī)范成為管理和領(lǐng)導(dǎo)議程的一部分,以便其能夠配置專門用于人工智能社會(huì)倫理規(guī)范實(shí)踐的資源(資金、人員、技術(shù))。從項(xiàng)目管理角度看,應(yīng)首先定義可能增進(jìn)或破壞人工智能倫理規(guī)范實(shí)踐的文化和行為,并制定變革管理計(jì)劃,以改變文化并彌合行為差距;其次,調(diào)整獎(jiǎng)勵(lì)和認(rèn)可結(jié)構(gòu),以激勵(lì)道德決策和發(fā)展實(shí)踐;創(chuàng)建(或調(diào)整)管理結(jié)構(gòu),以盡量避免社會(huì)倫理規(guī)范影響失效;定義各類指標(biāo)和關(guān)鍵績(jī)效;調(diào)整靈活度和以人為本的項(xiàng)目流程,以確保倫理規(guī)范貫穿于整個(gè)開發(fā)、設(shè)計(jì),和交付鏈;突出和慶祝項(xiàng)目進(jìn)程中有關(guān)倫理規(guī)范發(fā)揮了成果影響的具體事宜。

        2.2.2 監(jiān)督約束

        人工智能的開發(fā)、采購(gòu)、使用等諸個(gè)環(huán)節(jié)必須基于適當(dāng)且細(xì)致的監(jiān)督約束框架,以證明其部署和運(yùn)作符合社會(huì)倫理,從而促進(jìn)人的尊嚴(yán)、權(quán)利和福祉。其所涉及到的內(nèi)部或外部監(jiān)督約束機(jī)構(gòu)主要包括項(xiàng)目方和政府,具體說(shuō)來(lái),大致涵蓋以下方面的內(nèi)容[25]。

        (1)效力衡量

        ①為衡量工作提供支持。由項(xiàng)目資本方或政府來(lái)資助和支持不斷開展的衡量工作,以便為在社會(huì)倫理規(guī)范制度中部署或可能部署的措施提供有效、公開的衡量標(biāo)準(zhǔn)。這種支持可以采取多種形式,包括投資建立一系列監(jiān)管測(cè)量實(shí)驗(yàn)室、工作組提供直接支持,或通過(guò)雇傭認(rèn)可可信的第三方來(lái)間接支持。

        ②促進(jìn)數(shù)據(jù)集的創(chuàng)建。項(xiàng)目方或政府應(yīng)促進(jìn)數(shù)據(jù)集的創(chuàng)建,這些數(shù)據(jù)集可用于評(píng)估在社會(huì)倫理規(guī)范下人工智能相關(guān)實(shí)踐應(yīng)用的有效性。在建立或協(xié)助建立這類數(shù)據(jù)集時(shí),項(xiàng)目方或政府必須考慮到潛在的社會(huì)價(jià)值觀(如個(gè)人數(shù)據(jù)應(yīng)受到保護(hù)等),確保數(shù)據(jù)集既能維護(hù)社會(huì)價(jià)值觀,又可用于現(xiàn)實(shí)世界。IEEE認(rèn)為在這一方面所行舉措都應(yīng)透明,并接受公眾監(jiān)督。

        ③描述測(cè)量和驗(yàn)證。項(xiàng)目方應(yīng)采取有效措施衡量其人工智能社會(huì)倫理規(guī)范的有效性,一般而言可采取兩類手段,包括多系統(tǒng)比較評(píng)估與單系統(tǒng)驗(yàn)證。單系統(tǒng)驗(yàn)證的結(jié)論通常更具體,能夠回答在特定實(shí)例中是否有效的問(wèn)題。多系統(tǒng)比較評(píng)估的結(jié)論通常更具有普遍性,可以回答在一般的現(xiàn)實(shí)環(huán)境中是否有效的問(wèn)題。同樣,IEEE認(rèn)為應(yīng)在不披露知識(shí)產(chǎn)權(quán)的情況下,以公眾都能理解的清晰語(yǔ)言描述測(cè)試程序和結(jié)果,且這些描述還應(yīng)向利益相關(guān)者發(fā)布以供其監(jiān)督審查,有必要或適當(dāng)情況下還應(yīng)該面向公眾作公開發(fā)布。

        ④定義有效指標(biāo)。項(xiàng)目方應(yīng)設(shè)法定義有意義的指標(biāo)作為衡量效力的標(biāo)準(zhǔn)。在選擇和定義指標(biāo)時(shí),應(yīng)尋求所有利益相關(guān)者的意見,以確保在社會(huì)倫理規(guī)范體系下涵蓋開發(fā)、采購(gòu)、使用等涉及人工智能的諸多環(huán)節(jié)。與測(cè)量驗(yàn)證一致,IEEE明確指出這些指標(biāo)應(yīng)該很容易被公眾理解。此外,還應(yīng)確保項(xiàng)目所定義的有效性指標(biāo)具有易獲得性和可使用性(可供所有利益相關(guān)者使用)。最后,應(yīng)該提供有關(guān)解釋和響應(yīng)指標(biāo)的指導(dǎo)。

        ⑤開展指導(dǎo)工作。從政府和行業(yè)協(xié)會(huì)來(lái)說(shuō),其應(yīng)開展思想層面的指導(dǎo)工作,向人工智能相關(guān)項(xiàng)目方從事社會(huì)倫理規(guī)范部署及運(yùn)行的人員和受其運(yùn)行結(jié)果影響的人員通報(bào)顯著的有效性措施,以及有關(guān)社會(huì)倫理規(guī)范的能力和局限性。

        ⑥遵循指導(dǎo)。從項(xiàng)目方來(lái)說(shuō),將人工智能社會(huì)倫理規(guī)范應(yīng)用于具體任務(wù)的工作人員應(yīng)遵循其內(nèi)部領(lǐng)導(dǎo)層或外部政府部門制定的有效性測(cè)量指導(dǎo)。在遵循層面來(lái)講,主要包括在關(guān)于獲得哪些指標(biāo)、如何和何時(shí)獲得這些指標(biāo)、如何對(duì)給定結(jié)果作出反應(yīng)、何時(shí)采用衡量有效性的替代方法等方面。

        ⑦解釋和評(píng)估測(cè)量。從項(xiàng)目方來(lái)說(shuō),在解釋和回應(yīng)適用于社會(huì)倫理規(guī)范的人工智能有效性測(cè)量時(shí),解釋結(jié)果的人員應(yīng)考慮到給定人工智能部署的具體目標(biāo)和情況的變化。定量評(píng)估還應(yīng)輔以對(duì)給定結(jié)果的實(shí)際意義及其是否需要補(bǔ)救的定性評(píng)估。這項(xiàng)工作應(yīng)該由具備正確判斷能力的人員來(lái)完成,一般要求其具備所需專業(yè)背景知識(shí)和實(shí)際經(jīng)驗(yàn)。

        ⑧制定有效標(biāo)準(zhǔn)。項(xiàng)目方及外部的行業(yè)協(xié)會(huì)、政府等應(yīng)合作制定衡量和報(bào)告人工智能社會(huì)倫理規(guī)范實(shí)施有效性的標(biāo)準(zhǔn)。此外,這些標(biāo)準(zhǔn)的制定還應(yīng)得到學(xué)界和法律界的投入。

        (2)能力規(guī)范

        ①提供技能指導(dǎo)。對(duì)項(xiàng)目方而言,人工智能社會(huì)倫理規(guī)范的實(shí)施如果想達(dá)到預(yù)期的效力水平,則項(xiàng)目?jī)?nèi)外有關(guān)領(lǐng)域的專家應(yīng)為人工智能的開發(fā)、使用者提供所需知識(shí)、技能、經(jīng)驗(yàn)的的指導(dǎo)。該指導(dǎo)應(yīng)該是清晰易用的、可擴(kuò)展的,包括對(duì)不符合這些要求時(shí)所涉風(fēng)險(xiǎn)的描述,并且應(yīng)以公眾都能理解的形式加以記錄。

        ②制定管理運(yùn)行政策。項(xiàng)目方的創(chuàng)建者和開發(fā)者應(yīng)制定書面政策,以管理人工智能的開發(fā)運(yùn)作方式。在制定這些政策時(shí),基本思路應(yīng)該基于社會(huì)倫理規(guī)范,內(nèi)容應(yīng)包括:人工智能的實(shí)際應(yīng)用規(guī)范;有效使用的前提條件;開發(fā)、操作、評(píng)估等環(huán)節(jié)的人員所需的培訓(xùn)和技能;評(píng)估人工智能有效性的程序;解釋人工智能結(jié)果時(shí)要考慮的因素;人工智能正常運(yùn)行時(shí),各個(gè)受影響方的預(yù)期結(jié)果;不當(dāng)使用所帶來(lái)的具體風(fēng)險(xiǎn)等。此外,管理政策還應(yīng)明確可能涉及到人工智能的情況?;谕该鞫仍瓌t,這些政策也都應(yīng)該是公開的。

        ③為系統(tǒng)運(yùn)行提供綜合保障。就項(xiàng)目方而言,開發(fā)者應(yīng)該為人工智能的運(yùn)行提供綜合保障。保障措施可以包括在某些情況下向使用者發(fā)出通知和警告;根據(jù)使用者的專業(yè)水平限制其對(duì)人工智能功能的訪問(wèn);在潛在的高風(fēng)險(xiǎn)條件下關(guān)閉系統(tǒng)等,這些保障措施應(yīng)是靈活的。除此之外,還應(yīng)在政府(如司法部門)的監(jiān)督下制定對(duì)環(huán)境敏感的政策。

        ④保障受影響者權(quán)益。對(duì)于項(xiàng)目外部的政府或其他機(jī)構(gòu)而言,應(yīng)規(guī)定向任何因?yàn)轫?xiàng)目程序中適配了人工智能而受到影響的利益方告知人工智能在該過(guò)程中所起的作用。此外,受影響的一方還應(yīng)求助于領(lǐng)域?qū)<遥ň邆渲R(shí)背景者)的判斷。

        ⑤技能應(yīng)用于職責(zé)。無(wú)論是項(xiàng)目方還是外部政府或其他機(jī)構(gòu),從事人工智能實(shí)踐、解釋和執(zhí)行的人員都應(yīng)認(rèn)識(shí)到如何基于倫理,有效地將技能應(yīng)用于其專業(yè)職責(zé)。這些從業(yè)人員所屬的行業(yè)協(xié)會(huì)(如果有),應(yīng)通過(guò)教育計(jì)劃和職業(yè)倫理守則,努力確保其成員充分了解技術(shù)能力要求,以便有效和可信地履行職責(zé)。人工智能的開發(fā)、使用、評(píng)估者應(yīng)適應(yīng)社會(huì)倫理規(guī)范,無(wú)論是人工智能技術(shù)人員還是非技術(shù)人員,或努力提升自身適應(yīng)能力,或找出具有相應(yīng)能力的個(gè)人以支持其履行職責(zé)。

        (3)責(zé)任分配

        ①明確各方責(zé)任。這需要由項(xiàng)目方創(chuàng)建者闡明并記錄所有參與人工智能開發(fā)運(yùn)營(yíng)的人員在成果方面的明確責(zé)任。確定法律層面的責(zé)任時(shí),應(yīng)考慮到整個(gè)設(shè)計(jì)、開發(fā)、采購(gòu)、部署、運(yùn)行和有效性驗(yàn)證環(huán)節(jié)的各個(gè)人員,相應(yīng)地分配責(zé)任。以商業(yè)往來(lái)為例,在與外界溝通談判提供使用人工智能產(chǎn)品、服務(wù)的合同時(shí),人工智能的提供者和使用者、經(jīng)營(yíng)者應(yīng)在合同條款上明確規(guī)定對(duì)所獲得產(chǎn)品使用結(jié)果的責(zé)任范圍,包括明確其對(duì)應(yīng)用結(jié)果的具體責(zé)任,人工智能產(chǎn)生的結(jié)果與預(yù)期不同時(shí)的潛在責(zé)任,以及人工智能的使用者和經(jīng)營(yíng)者應(yīng)了解其可能在多大程度上對(duì)不良結(jié)果承擔(dān)責(zé)任。

        ②適應(yīng)監(jiān)督審查。為了給人工智能實(shí)踐結(jié)果分配責(zé)任,人工智能的創(chuàng)建者、經(jīng)營(yíng)者、使用者都適用于同一套政策法律體系,應(yīng)服從其監(jiān)督機(jī)制和調(diào)查審核。IEEE建議如果項(xiàng)目方涉及到的人工智能是由有直接公眾互動(dòng)的組織(如執(zhí)法機(jī)構(gòu)等)使用和部署的,也可以由項(xiàng)目外部的第三方專門審查機(jī)構(gòu)進(jìn)行監(jiān)督調(diào)查。這也要求項(xiàng)目方保存其在具體進(jìn)展中所遵循的各類明確的程序或決策文件。

        ③建立激勵(lì)機(jī)制。從事人工智能開發(fā)和運(yùn)營(yíng)的組織應(yīng)考慮建立個(gè)人和集體的激勵(lì)機(jī)制,以確保人工智能的結(jié)果符合倫理標(biāo)準(zhǔn),維持其應(yīng)盡的責(zé)任。

        (4)權(quán)限限定

        ①協(xié)調(diào)利益相關(guān)者。項(xiàng)目方和政府應(yīng)促進(jìn)利益相關(guān)者之間的對(duì)話,包括參與技術(shù)設(shè)計(jì)、開發(fā)、采購(gòu)、部署、運(yùn)行和驗(yàn)證的利益相關(guān)者;可能直接受到成果影響的利益相關(guān)者;可能間接受到成果影響的利益相關(guān)者,包括一般公眾;在倫理、政治和法律方面具有專門知識(shí)的人;在透明度與其他優(yōu)先事項(xiàng)(例如安全、隱私、所有權(quán)等)間取得平衡的問(wèn)題方面具有專門知識(shí)的人。在具體實(shí)現(xiàn)各方利益平衡時(shí),項(xiàng)目方和政府應(yīng)考慮如何協(xié)調(diào)利益相互競(jìng)爭(zhēng)的情況。

        ②制定透明度原則。一方面,具體政策的制定者在依據(jù)社會(huì)倫理規(guī)范為人工智能實(shí)踐制定執(zhí)行細(xì)則時(shí),應(yīng)要求其制定的原則既要對(duì)可能披露的信息類型間的區(qū)別足夠敏感,也要對(duì)開發(fā)、使用等諸多環(huán)節(jié)足夠敏感,更要對(duì)給定成果有足夠敏感。另一方面,也應(yīng)考慮適當(dāng)保護(hù)知識(shí)產(chǎn)權(quán),即使基于透明度原則,需要公開如成果效力性能等在內(nèi)的某類信息,也應(yīng)該對(duì)知識(shí)產(chǎn)權(quán)進(jìn)行保護(hù)。這就要求制定者在一定程度上考慮到,其所保證的公開級(jí)別將取決于特定情況下的利害關(guān)系。

        ③設(shè)置公共利益管理者。政策制定者應(yīng)考慮為某個(gè)特別指定的“公共利益管理者”或“可信賴的第三方”設(shè)置職能,賦予其一般公眾所無(wú)法獲得的信息權(quán)限。這樣的公共利益管理者將負(fù)責(zé)評(píng)估信息以回答公共利益問(wèn)題,同時(shí)也有義務(wù)不披露在得出該回答時(shí)獲取信息的具體細(xì)節(jié)。

        ④信息授權(quán)。對(duì)于包含合作或利益來(lái)往的項(xiàng)目而言,涉及到人工智能成果(產(chǎn)品、服務(wù)等)的談判協(xié)商時(shí),雙方應(yīng)在文件條款中,明確規(guī)定處于不同類別、層次的人具有不同的信息查看權(quán)限,即規(guī)定不同權(quán)限的人群所能獲得的關(guān)于項(xiàng)目開發(fā)、使用、評(píng)估的信息屬于不同層級(jí)。

        ⑤建立錯(cuò)誤共享機(jī)制。外界政府或其他機(jī)構(gòu)應(yīng)在適當(dāng)?shù)那闆r下與項(xiàng)目方的人工智能開發(fā)者及其他利益相關(guān)者合作,促進(jìn)建立錯(cuò)誤共享機(jī)制,以便能夠更有效地識(shí)別和糾正其在社會(huì)倫理規(guī)范下開發(fā)或使用人工智能存在的不足,例如安全應(yīng)用或風(fēng)險(xiǎn)評(píng)估算法中的系統(tǒng)性識(shí)別錯(cuò)誤等。

        ⑥提供舉報(bào)人保護(hù)。在人工智能的開發(fā)或運(yùn)行不符合預(yù)期,或結(jié)果沒有得到正確解釋的情況下,無(wú)論外部還是內(nèi)部的監(jiān)督機(jī)構(gòu),都應(yīng)向主動(dòng)提供信息的個(gè)體提供舉報(bào)人保護(hù)。例如,如果某一利益方采用面部識(shí)別技術(shù)是基于非法或不符合倫理規(guī)范的目的,或其使用方式處于預(yù)期用途之外,則接收舉報(bào)的機(jī)構(gòu)應(yīng)該向提供信息的個(gè)人給予安全保護(hù)使其免遭報(bào)復(fù)。

        2.3 檢驗(yàn)階段

        人工智能社會(huì)倫理規(guī)范對(duì)于不同行業(yè)領(lǐng)域而言需要依據(jù)其行業(yè)特色有針對(duì)性地實(shí)施,但總的說(shuō)來(lái),可以從各行業(yè)領(lǐng)域的項(xiàng)目進(jìn)程角度提煉一套泛化的實(shí)施效果檢驗(yàn)框架。該框架主要從項(xiàng)目基礎(chǔ)層的支持、領(lǐng)導(dǎo)層的認(rèn)同、指標(biāo)績(jī)效、組織影響等方面進(jìn)行衡量舉措,通過(guò)落后、基本、高級(jí)、卓越四個(gè)層次的表現(xiàn)具體驗(yàn)證其社會(huì)倫理規(guī)范實(shí)施程度,如表2所示。

        表2 人工智能倫理實(shí)施程度參照表

        3 建議

        人類社會(huì)的科技水平與其依靠代代承繼才擁有的文化背景存在發(fā)展不協(xié)調(diào)的問(wèn)題,因此,需要通過(guò)在人工智能相關(guān)技術(shù)或項(xiàng)目中實(shí)施倫理規(guī)范,找到二者間的融合路徑,實(shí)現(xiàn)為人類發(fā)展謀求福祉的根本訴求。根據(jù)目前從IEEE提煉的實(shí)施機(jī)制可總結(jié)出以下幾點(diǎn)建議。

        (1)構(gòu)建文化氛圍

        人工智能技術(shù)從設(shè)計(jì)研發(fā)到推廣使用需要社會(huì)各界的投入與支持。因此,需要不斷在社會(huì)的科技創(chuàng)新發(fā)展進(jìn)程中向民眾構(gòu)建和強(qiáng)化社會(huì)倫理的價(jià)值認(rèn)同。有效的方法通常有賴于通識(shí)教育和社會(huì)宣傳,這將會(huì)使得倫理規(guī)范始終貫穿各個(gè)學(xué)科領(lǐng)域、被各個(gè)項(xiàng)目環(huán)節(jié)自然遵循,為各行業(yè)從業(yè)者普遍認(rèn)可和理解,也能避免社會(huì)倫理被作為單獨(dú)的模塊生硬嵌入人工智能技術(shù)相關(guān)的項(xiàng)目中。

        (2)區(qū)分實(shí)施主體

        在人工智能技術(shù)相關(guān)的項(xiàng)目中實(shí)施社會(huì)倫理規(guī)范對(duì)處于不同環(huán)節(jié)不同利益方的人員而言,是必然存在差異的。從技術(shù)設(shè)計(jì)者、開發(fā)者到推廣者、使用者等,各有側(cè)重傾向。因而在具體某一項(xiàng)目的倫理規(guī)范實(shí)施過(guò)程中,各方應(yīng)提前明確其自身角色屬性,劃分好各自實(shí)施工作的范圍和重點(diǎn),并找到不同利益方之間合作互助的溝通方式。

        (3) 建立監(jiān)督框架

        對(duì)于人工智能技術(shù)相關(guān)項(xiàng)目的各個(gè)環(huán)節(jié)而言,應(yīng)該始終處于給定的監(jiān)督約束框架中開展實(shí)施工作。一般來(lái)說(shuō),監(jiān)督方主要分項(xiàng)目?jī)?nèi)部的自我監(jiān)督和第三方監(jiān)督機(jī)構(gòu)的外部監(jiān)督,而監(jiān)督內(nèi)容應(yīng)該包括實(shí)施規(guī)范的效力、實(shí)施規(guī)范者的能力、各利益方責(zé)任的分配、權(quán)限限定等。此外,有效的監(jiān)督除了在國(guó)家層面或整個(gè)行業(yè)層面依靠對(duì)監(jiān)督框架本身標(biāo)準(zhǔn)作明確定義外,還應(yīng)將執(zhí)行人員的專業(yè)素養(yǎng)納入考量,以此保障監(jiān)督制度的針對(duì)性和執(zhí)行度。

        總的來(lái)說(shuō),遵循人工智能社會(huì)倫理規(guī)范是現(xiàn)實(shí)社會(huì)運(yùn)用人工智能技術(shù)的重要前提。人工智能技術(shù)為現(xiàn)實(shí)社會(huì)的發(fā)展帶來(lái)了系列變革,從便捷性、安全性、公平性等諸多因素對(duì)其進(jìn)行考量,利弊皆存,這就要求明確的社會(huì)倫理規(guī)范來(lái)約束各行業(yè)領(lǐng)域人工智能技術(shù)的應(yīng)用。為此,需要明確人工智能社會(huì)倫理規(guī)范的具體實(shí)施機(jī)制。而以IEEE為代表,其人工智能社會(huì)倫理規(guī)范在一般項(xiàng)目開展中的實(shí)施機(jī)制,也以此為目標(biāo)導(dǎo)向,因地制宜,因時(shí)制宜,在切合實(shí)際項(xiàng)目流程的基礎(chǔ)上,強(qiáng)化了項(xiàng)目?jī)?nèi)部的組織管理與項(xiàng)目外部各方利益的協(xié)調(diào),有力地服務(wù)現(xiàn)實(shí)社會(huì)各行業(yè)領(lǐng)域的項(xiàng)目開展與當(dāng)代社會(huì)的智能化建設(shè)。

        猜你喜歡
        倫理規(guī)范人工智能
        《心之死》的趣味與倫理焦慮
        來(lái)稿規(guī)范
        來(lái)稿規(guī)范
        PDCA法在除顫儀規(guī)范操作中的應(yīng)用
        來(lái)稿規(guī)范
        護(hù)生眼中的倫理修養(yǎng)
        活力(2019年19期)2020-01-06 07:37:00
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        午夜桃色视频在线观看| 亚洲国产无套无码av电影| 老湿机香蕉久久久久久| 国产在线丝袜精品一区免费| 国产日本在线视频| 日本小视频一区二区三区| 久久国产精品一区av瑜伽| 在线麻豆精东9制片厂av影现网| 人妻丰满熟妇无码区免费| 曰批免费视频播放免费直播| 亚洲最大天堂无码精品区| 人妻少妇无码中文幕久久| 午夜不卡久久精品无码免费| 日韩毛片在线| 亚洲国产精品日韩专区av| 国产丝袜长腿在线看片网站 | 国产精品高潮呻吟av久久黄| 久久99国产精品久久| 人人妻人人澡人人爽人人精品97| 亚洲av无码成人黄网站在线观看| 国产精品爆乳在线播放| 大白屁股流白浆一区二区三区| 久久精品国产亚洲av沈先生| 中文字幕免费人成在线网站| 天堂在线资源中文在线8| 美丽人妻在夫前被黑人| 18禁高潮出水呻吟娇喘蜜芽 | 人妖啪啪综合av一区| 最新欧美精品一区二区三区| 国产成人精品一区二区三区视频| 欧美极品少妇性运交| 国产一区二区三区爆白浆| 区三区久久精品水蜜桃av| 自拍视频在线观看首页国产| 国产不卡视频一区二区三区| 日韩在线一区二区三区免费视频| 热久久这里只有| 亚洲av第二区国产精品| 国产精品网站91九色| 欧美黑寡妇特a级做爰| 人妻少妇av无码一区二区|