亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        論人工智能發(fā)展風險的認知與規(guī)避

        2020-12-14 15:25:33韓璞庚
        理論月刊 2020年12期
        關(guān)鍵詞:機器倫理人工智能

        □王 璐,韓璞庚

        (1.南京師范大學中北學院,江蘇 鎮(zhèn)江212300;2.南京信息工程大學 馬克思主義學院,江蘇 南京210044;3.江蘇省社會科學院,江蘇 南京210004)

        近年來,隨著信息技術(shù)的飛速發(fā)展,人工智能引爆的人類數(shù)字化生存正將人類帶入一個難以置信的科幻世界。過去冰冷的機器,在人工智能作用下逐漸有了人類的智慧和溫情。谷歌研發(fā)的阿爾法狗(AlphaGo)機器人,接連擊敗韓國的李世石、中國的柯杰等眾多圍棋高手,登上人類智力的巔峰;添加了神經(jīng)網(wǎng)絡的谷歌翻譯軟件,翻譯水平已基本與人工翻譯無異;索菲亞美女機器人,已經(jīng)具備像人那樣“風情萬種”的感知,甚至可以和“男友”談情說愛。人工智能不同尋常的技術(shù)發(fā)展,以及一件件令人咋舌的發(fā)明創(chuàng)新,不斷模糊著機器與人的界限,沖擊著人作為“萬物之靈長”的主體地位。以致有人疾呼,未來人工智能將超過人類智能,機器人將統(tǒng)治、奴役人類,人類將會被當作動物送進動物園。面對這些矛盾和焦慮,筆者試圖從人工智能的發(fā)展起源出發(fā),分析其可能面臨的風險困境,進而提出規(guī)避風險的對策建議。

        一、在爭論中興起的人工智能

        人工智能是伴隨著計算機科學、大數(shù)據(jù)等技術(shù)突破而發(fā)展起來的,其萌芽可以追溯到世界上第一臺計算機埃內(nèi)阿克(ENIAC)的誕生,其真正發(fā)展始于1950年圖靈在論文《計算機與智能》中提出的著名的“圖靈測試”,證明了機器具備像人類一樣智能的可行性。1956 年,在美國達特茅斯學院的一次研討會上,人工智能的概念首次被正式提出,并作為重要的研究課題。在整個20世紀,人工智能的研究雖在不斷深入,但受技術(shù)認知的局限,總體發(fā)展“波瀾不驚”。然而在人工智能發(fā)展過程中,圍繞“人工智能能否超過人類”的爭論,卻一直沒有停息。

        符號主義人工智能(Symbolic AI)認為,人類的認知是由不同符號、句法按照各種邏輯結(jié)構(gòu)組合而成,只要計算機的存儲功能足夠大、運算速度足夠快,計算機可以模擬人類智能。其代表人物西蒙(Simon)認為,智能機器與人是一樣的,任何種類的智能活動都可以變成一套指令。他在20世紀60年代就曾預言,二十年之內(nèi),機器將能做到人所能做到的一切。這一觀點遭到密勒(George Miller)、魯?shù)婪颉ぐ⒍骱D罚≧odolf Arnheim)、羅斯·奎連(Ross Quillian)、約翰·賽爾(John Searle)等人的反對,他們認為計算機只能夠進行符號處理,并不能把握語句與詞語的意義,其與人類具有本質(zhì)的區(qū)別;即使機器通過了圖靈測試,但僅僅是證明機器在行為上與人的相似性,并不具有人類思維的特性。

        聯(lián)結(jié)主義人工智能(Connectionism AI)又稱為神經(jīng)網(wǎng)絡人工智能(Neutral Network AI)認為智能的過程來自人類大腦的組織結(jié)構(gòu)和運行模式,而不是源自計算機。其代表人物明斯基(Minsky)認為,思維是由許多不同類似神經(jīng)元的智能主體組成的層級結(jié)構(gòu),這是簡單的符號語言所無法模擬的。在符號主義人工智能和聯(lián)結(jié)主義人工智能研究范式之外,還有一種被稱為行為主義人工智能(Actionism AI)的研究方法,該方法認為,機器“智能”水平的高低不依賴于算法和預先設定的程序,關(guān)鍵在于如何主動適應外部環(huán)境并及時做出反應。

        筆者認為,不管是符號主義研究方法,還是聯(lián)結(jié)主義、行為主義路線,必須從辯證唯物主義出發(fā)思考人工智能與人的本質(zhì)的關(guān)系。人是自然界的一部分,人通過實踐把自然轉(zhuǎn)化為“人的無機的身體”,使之成為人的存在的一部分。人工智能作為一種技術(shù)存在、社會存在,是人類認識自然、改造自然實踐經(jīng)驗的總結(jié)物化,是計算機科學、哲學、社會學等多學科、多領(lǐng)域的有機組合。從某種程度上講,人工智能是制造能像人一樣做事情的機器的科學。智能機器所表現(xiàn)出來的獨立思考、理解和反思等功能,是人類主體預先設定的特定程序的再現(xiàn),即便一些具備自主學習能力智能行為體,其“智力”水平更多還是取決于人類為其提供的算力的快慢、算法模型的優(yōu)劣,以及數(shù)據(jù)樣本的多寡。這也決定著,機器始終是主人的機器,人永遠是那個在前臺表演的木偶的幕后牽線人。

        二、人工智能發(fā)展面臨的風險困境

        近年來,隨著算力增強、數(shù)據(jù)增多、算法優(yōu)化,人工智能發(fā)展的基礎更加扎實,一些新的應用層出不窮,人工智能正逐步走出實驗室,邁向“脫虛向?qū)崱钡男码A段。然而機遇總伴隨著挑戰(zhàn),有學者認為,所有技術(shù)進步都有代價,技術(shù)引起的問題比解決的問題多,有害和有利的后果不可分離,所有技術(shù)都隱含著不可預見的后果。如今,這種后果有的業(yè)已顯現(xiàn),有的則成為未來發(fā)展的隱患。中國科學院院士譚鐵牛指出:“人工智能的社會影響是多元的,既有拉動經(jīng)濟、服務民生、造福社會的正面效應,又可能出現(xiàn)安全失控、法律失準、道德失范、倫理失常、隱私失密等社會問題,以及利用人工智能熱點進行投機炒作從而存在泡沫風險?!盵1](p39)我們必須從哲學角度認真研析其問題成因,及時引導其走出風險困境。

        (一)人的主體作用在弱化消解

        人是社會的主體。人類因其“有思想、會創(chuàng)造”的特質(zhì),確保了社會主體的唯一性。傳統(tǒng)計算機雖代行了人類的部分工作,但僅限于連接搜索、讀取數(shù)據(jù)等經(jīng)典意義上的常規(guī)性操作,在整個決策鏈條中,人發(fā)揮著不可替代、一錘定音的作用。隨著信息文明向高級階段突進,特別是萬物智聯(lián)時代的開啟,人與物的壁壘被打破,社會上蕓蕓眾生的人與五花八門的物連接成了一個有機整體。萬物網(wǎng)雖極大方便了人類生活,然而人作為社會網(wǎng)絡體系中一個節(jié)點的存在,使原本處于決策鏈頂層的人的作用相對消解。網(wǎng)絡社區(qū)中人際交往在不斷退化,計算機網(wǎng)絡將人從世界中抽離出來,還原為可以輕易控制的數(shù)據(jù)流類型。在對事物的分析、決策中,人的作用將不再如過去那么重要或者不可替代,機器可以代表人類“預測一切、決定一切、安排一切”,人的主體作用在下降,社會的參與度在降低,勢必產(chǎn)生客體主體化、主體客體化的邏輯混淆。在辯證唯物主義實踐觀中,人類通過實踐活動改造自然界,并使自身達到自然性與社會性的和諧統(tǒng)一。根植大地、躬身實踐,是人類有別于動物而不斷創(chuàng)造出燦爛文明的重要標志。隨著智能體的過度代勞,表面上帶來了安逸和便利,但無形之中卻限制甚至剝奪了人類實踐的機會。有科學家預言,隨著腦機接口等智能技術(shù)的發(fā)展,未來機器將會替代大腦以外所有的肉體器官,包括眼睛、耳朵、性器官、飲食器官等,人類千百萬年進化而成的自然肉體將會被“廢棄不用”。如果預言成真,人再也不是最初的自我,甚至異化為生活的附庸。

        (二)智能服務與隱私保護的二元悖論

        如何實現(xiàn)更好的服務,又確保個人隱私不受侵害,一直是信息技術(shù)發(fā)展不可回避的話題。時至今日,人工智能原有的風險隱憂不僅沒有完全解決,一些新的矛盾問題也在不斷涌現(xiàn)。近年來,人工智能的突飛猛進很大程度上源于數(shù)據(jù)挖掘和深度學習技術(shù)的重大突破。海量數(shù)據(jù)是人工智能迭代升級不可或缺的“食糧”,智能體“智能”水平的高低、提供服務的優(yōu)劣,最根本的差別在于數(shù)據(jù)占有量的多寡、真?zhèn)味鹊母叩汀榱恕坝柧殹备奥斆鳌钡闹悄荏w,一些單位采取合法與非法、公開與隱蔽、人們知情與不知情等多種渠道,肆意搜集整理人們的家庭信息、健康信息、購買喜好、日?;顒榆壽E等數(shù)據(jù)。這些數(shù)據(jù)在智能技術(shù)的強大驅(qū)動下,則可以提取生成個人支付能力、社交關(guān)系等高價值信息,進而生成或還原出一個人的“生活肖像圖”。在萬物智聯(lián)的世界,人與“透明人”無異。人們所享受的人工智能的各種便利,某種程度上是個人隱私權(quán)的部分讓渡或交換。人臉識別等數(shù)據(jù)如果沒有妥善保管和合理使用,就會容易侵犯用戶隱私。大數(shù)據(jù)時代,個人在互聯(lián)網(wǎng)上的任何行為都會變成數(shù)據(jù)被沉淀下來,而這些數(shù)據(jù)的匯集可能最終導致個人隱私的泄露。人工智能作為人類認知世界、改造世界的一種技術(shù)存在,其發(fā)展演變始終不能背離輔助人、服務人的本源。妥善處理好智能服務與隱私保護的關(guān)系,已經(jīng)成為當前人工智能發(fā)展必須面對的重大現(xiàn)實問題。

        (三)人工智能不可忽視的倫理風險

        隨著人工智能“擬人化”程度的不斷提高,一些人工智能體越來越深度融入人們的生活中,無人駕駛汽車、家庭管家、陪護機器人、智能導購等應用,極大解放了人的腦力和體力,成為人們工作生活不可或缺的一部分。人類社會生活也從以人類為中心的行為活動,演變?yōu)橐欢I(lǐng)域并不斷擴大的人機合作活動。然而,從倫理角度來看,當機器代替人從事某些工作時,其工作過程中造成的過錯或者過失應該由誰買單?是否應賦予人工智能系統(tǒng)一定的道德承載和社會責任?比如在嚴重擁堵的城市,很多人工駕駛的汽車違章行駛,自動駕駛汽車不違章就沒法前行,是不是也可以把其系統(tǒng)設計成可以違章駕駛?再如,在即將發(fā)生車禍危險的時候,智能系統(tǒng)應該做怎樣的選擇也是棘手的倫理問題。從人工智能系統(tǒng)的運行機理看,人工智能算法看似與倫理價值無關(guān),但算法“以數(shù)學方式或者計算機代碼表達意見”的本質(zhì),決定著設計者的立場觀點會有意無意地嵌入其中。某種程度上講,一些人工智能系統(tǒng)很容易被訓練數(shù)據(jù)的質(zhì)量和算法中預設的前提所左右。算法偏見和數(shù)據(jù)偏差帶來的最終結(jié)果將是決策的偏差,甚至是對決策者的誤導。比如,營銷產(chǎn)品時,商家可以通過數(shù)據(jù)過濾技術(shù)將產(chǎn)品的負面信息過濾掉,根據(jù)客戶的特點、喜好等定向推送對自己有利的信息;又如,一些選舉操縱事例,選民往往無法通過自主選擇來閱讀或看到自己希望讀或看的東西,只能被動接受算法強推的結(jié)果,導致無法看清事物的真實面目。算法的“黑箱”特征,也使人工智能系統(tǒng)在決策判斷上缺乏透明性、可控性。臉書研究團隊曾在一次試驗中安排兩個智能機器人進行“交流”,在“交流”的過程中竟然產(chǎn)生了超出科學家預期的對話。無獨有偶,微軟開發(fā)的智能聊天機器人Tay在與網(wǎng)民上線互動時,竟然不時冒出性別和種族歧視語言。這些智能系統(tǒng)如果完全代行人類決策,就有可能帶來不可預知的倫理風險,甚至危害整個社會利益。

        (四)致命智能武器系統(tǒng)的人類生存擔憂

        戰(zhàn)爭,作為人類社會生存競爭的一種高級暴力活動,在國家、社會、種族關(guān)系調(diào)節(jié)中發(fā)揮著重要作用。過去,無論戰(zhàn)爭正義與否,鋒利的大刀長矛、扣動槍支的扳機、可以將人類推向毀滅的核武器的按鈕等,都始終掌握在人類的手中,人是操控武器的主人。隨著人工智能的蓬勃興起,無人飛行器、智能蜂群、無人潛航器等嶄露頭角,并被推向戰(zhàn)場上敵對雙方激烈對抗絞殺的“最前線”。這些披上智能外衣的各色武器裝備,不再是過去戰(zhàn)場上純粹的“被指揮者”,它們擁有一定的自主行動權(quán)甚至自主“開火權(quán)”。這種人與武器裝備的角色異位,使戰(zhàn)爭面臨著失控的風險。在復雜戰(zhàn)場上,這群毫無感情、不知疲倦的鋼鐵機器在受到通信干擾、網(wǎng)絡攻擊等各種不可知的情況下,極有可能對它的操控者“倒戈一擊”,甚至對無辜的平民“亂開槍”,成為戰(zhàn)場上的“麻煩”的制造者、人類的“終結(jié)者”。2015年7月,美國一臺“發(fā)瘋”的機器人曾“失手”將一名裝配工人殺死。在中東戰(zhàn)場上,武裝到牙齒的美軍,不時爆出一些高新技術(shù)武器裝備“調(diào)轉(zhuǎn)槍口”對準己方人員,造成嚴重的誤炸誤傷,至于傷害無辜平民的案例更是屢見不鮮。智能武器裝備的廣泛應用,也使發(fā)動戰(zhàn)爭的決策成本相對降低。借助深度學習、模擬仿真等智能技術(shù),人們可以在開戰(zhàn)前對戰(zhàn)爭全過程進行一次“彩排”“預演”或者“全景呈現(xiàn)”,戰(zhàn)場將不再是過去那個“充滿不確定性的領(lǐng)域”,戰(zhàn)爭也將不再是“國之大事、死生之地”,甚至失去人類的控制。冰冷的機器代替人成為戰(zhàn)場上的主角,也將對正義戰(zhàn)爭理論產(chǎn)生影響,甚至嚴重沖擊著二戰(zhàn)后人類建立起來的世界軍控體系。

        三、人工智能發(fā)展的風險應對

        馬克思在《哲學的貧困》中寫道:“手推磨產(chǎn)生的是封建主的社會,蒸汽磨產(chǎn)生的是工業(yè)資本家的社會?!盵2](p222)技術(shù)雖然根植于特定的社會環(huán)境,但卻作用和反作用于人類社會的演進發(fā)展。人工智能的快速興起,既讓人們享受了其所帶來的極大便利,也讓人們對其可能產(chǎn)生的風險隱患始終難以釋懷。美國奇點大學創(chuàng)始人、谷歌技術(shù)總監(jiān)雷·庫茲韋爾曾將人類對待技術(shù)的態(tài)度分為敬畏、恐懼和謹慎三個階段。作為技術(shù)活動主體的人,面對人工智能可能帶來的些許便利,必須始終心懷敬畏、恐懼,采取更加謹慎的態(tài)度,樹立正確的發(fā)展觀,確立合理的需求觀,構(gòu)建人與人工智能相容共生的和諧社會。

        (一)堅持以人為本的發(fā)展原則

        每個人都擁有自己的內(nèi)在價值,這種價值絕不能因技術(shù)的發(fā)展而被削弱、損害或壓制,否則技術(shù)就失去了其發(fā)展的必然價值。人工智能既然是由人類所創(chuàng)造,就必須從屬于人的主體地位,始終為人類服務。人工智能系統(tǒng)的開發(fā)應該尊重、保護并服務于人的身心完整和社會文化認同感。美國學者阿西莫夫在《我是機器人》一書中曾認為,機器人的宗旨是不能危害人類,而當人類可能受到侵害時機器人也不能袖手旁觀而不顧。要始終堅守以人為中心的倫理道德,在系統(tǒng)建構(gòu)、算法賦予中,要把“為人類造福”“為人民服務”作為原則底線,確保不能侵犯人的主體地位。2018年,在全國人工智能哲學與跨學科思維論壇上,蘇令銀建議將儒家倫理規(guī)范“忠”“恕”“仁”嵌入機器之中。在我國古代也一直有以道馭術(shù)的文化傳統(tǒng),例如莊子對“機械”與“機心”的探討,墨家側(cè)重工匠自身品德修養(yǎng)的要求等,確保機器通過學習人類來提升道德,拒絕做不道德的事。要注重完善機器的人性設計。人類不應該制造他們所能制造的每一種技術(shù)產(chǎn)品,而只應該制造那些或者對他們的同胞或是對他們自己必不可少的技術(shù)產(chǎn)品。在不斷滿足人類無止境的需求上,一方面要將機器的功能盡可能打造得更完美;另一方面要合理約束需求的邊界,一味地貪婪,在下一刻就可能走向滅亡。20 世紀40 年代以來,人類為了在戰(zhàn)場上追求對敵方更大的殺傷而發(fā)明了原子彈,然而卻差點把人類和地球推向毀滅的邊緣。規(guī)避人工智能風險,實際上是同人類的欲望和貪婪進行一場曠日持久的斗爭。完善人性、合理確定需求,才是防范人工智能風險的治本之道。

        (二)強化公平正義的建設導向

        公平正義是人類社會文明發(fā)展的度量器,也是助推人類社會不斷向前發(fā)展的重要推動力。人類對公平正義的追求,不僅是個意識形態(tài)命題,更重要的它還是個社會實踐課題,一切公平正義都要靠行為來推動落實。任何對這一本質(zhì)產(chǎn)生威脅的行為都是非正義的,也是偽公平的。人工智能的發(fā)展運用,承載的是現(xiàn)實客觀世界,必須把確保社會公平正義作為出發(fā)點、落腳點。要提高人工智能系統(tǒng)的可解釋性,系統(tǒng)的研發(fā)和使用過程必須透明,能力和目的必須經(jīng)過公開討論,系統(tǒng)所做的決策必須能夠解釋給所有受到人工智能系統(tǒng)直接或間接影響的人群,得到他們的理解和支持。任何個人和團體都不應該受到不公正的偏見、歧視或者侮辱。要提高人工智能系統(tǒng)的安全性,充分考慮系統(tǒng)可能出現(xiàn)的意外情況,設計并測試后備保障機制;特別是當人工智能系統(tǒng)偶爾出現(xiàn)不準確判斷時,系統(tǒng)要能夠準確評估出誤判的可能性大小,當出現(xiàn)意外后果時能被隨時中止。要提高人工智能系統(tǒng)的可信賴性,在系統(tǒng)全生命周期中實現(xiàn)包容性和多樣性,建立有全部利益相關(guān)方參與的長期反饋機制。特別是對關(guān)系人工智能決策的關(guān)鍵數(shù)據(jù)和運行流程,以及數(shù)據(jù)采集、遴選、甄別、分析等活動要做到公開透明。要針對不同國家、不同地區(qū)和不同人群在思想、信仰、文化等方面的差異,更加突出用戶的多元性和人機交互的包容性,確保不同的人在不同的環(huán)境條件下,都能平等享受到人工智能等質(zhì)的服務。

        (三)設定技術(shù)發(fā)展的倫理法則

        機器倫理始于安德森的《走向機器倫理》一文,文中作者對機器倫理的概念作了解讀和闡釋。波斯特洛姆(Bostrom)、尤德科夫斯基(Yudkowsky)、索勒斯(Soares)等人認為,即使賦予智能體無害的目標,它也有可能無意識地與人類展開競爭,甚至危及人類自身。有專家學者甚至疾呼,在我們完全沒有準備好的情況下有可能禍從天降。近年來,世界各國特別是西方發(fā)達國家越來越關(guān)注人工智能帶來的倫理、法律和社會問題。2016年8月,聯(lián)合國教科文組織會同有關(guān)部門發(fā)布了《機器人倫理報告初步草案》,歐盟相關(guān)機構(gòu)隨后相繼出臺發(fā)布了《歐盟機器人民事法律規(guī)則》《可信賴人工智能道德準則》等文件,明確提出要在人工智能和機器人領(lǐng)域構(gòu)建更為完善的道德標準和倫理準則。美國在人工智能開發(fā)上,大力倡導“多利益相關(guān)方共同合作交流”機制,2017 年1 月,來自全球各地的人工智能專家,在美國加利福尼亞州阿西洛馬聯(lián)合提出“阿西洛馬人工智能原則”,強調(diào)“應以安全、透明、負責、可解釋、為人類做貢獻和多數(shù)人受益等方式開發(fā)AI”[3](p106)。針對人工智能可能帶來的倫理風險,我們既要從技術(shù)上搞好預先認知,也要從管理角度進行科學規(guī)范。要為人工智能劃定倫理禁區(qū)。我國在《人工智能標準化白皮書2018》中,首次從政府層面提出中國關(guān)于人工智能倫理的人類利益原則和責任原則,但從現(xiàn)實看,我國人工智能產(chǎn)業(yè)還處在商業(yè)驅(qū)動的初級階段,一些產(chǎn)品設計還建立在個人倫理自覺基礎上。要加強人工智能倫理禁區(qū)立法,通過行業(yè)自律、制定指南等形式來約束管控人工智能可能帶來的倫理挑戰(zhàn)。當初克隆技術(shù)出現(xiàn)后,人們從法律上明令禁止對人的克隆,為克隆人劃定了不可逾越的屏障。要強化人工智能系統(tǒng)的治理監(jiān)管,使其具備優(yōu)良的“倫理品質(zhì)”。當智能系統(tǒng)對用戶產(chǎn)生重大影響時,人類有權(quán)不受完全基于自動處理的決策的約束。每一個出場產(chǎn)品,都要為人類監(jiān)督設定預定的“后門”。這個“后門”,可以通過人在回路中(Human- In- The- Loop,HITL)、人在回路上(Human-On-The-Loop,HOTL)或者人工控制(Human-In-Command,HIC)等來實現(xiàn),確保人工智能產(chǎn)品牢牢控制在人類手中。

        (四)打造人機相容的和諧文化

        馬克思說:“在手工操作制度下,手工勞動通常是任何一件產(chǎn)品中花費最大的因素;而在自動體系下,手工業(yè)者的技藝就日益為看管機器的簡單動作所替代?!盵2](p248)人工智能作為人類認識自然、改造自然經(jīng)驗的總結(jié)物化,秉承了過去三次工業(yè)革命的衣缽,使人類與機器的關(guān)系更加密不可分,把人類生產(chǎn)力提高到了一個新的高度。國外學者曾預言,未來十年,人工智能將代替超過40%的就業(yè)崗位。人工智能技術(shù)的應用極大延展并拓寬了人類改造自然的能力,而人類又通過不斷的實踐使人工智能技術(shù)得到了螺旋迭代提升。人與機器并不是“非此即彼”的“零和博弈”,而是一對和諧共生體。中國古代賢哲早就提出了“天人合一”的觀念,強調(diào)人與自身、人與萬物、人與社會之間的和諧共生關(guān)系。從社會發(fā)展的歷史進程看,發(fā)展中的和諧才是真正的和諧,和諧的構(gòu)建源于豐富的物質(zhì)技術(shù)支撐。在科技產(chǎn)業(yè)革命日新月異不斷發(fā)展的今天,科學技術(shù)已經(jīng)成為關(guān)系國家民族復興偉業(yè),關(guān)聯(lián)人民生活福祉的重要因素,成為世界各國競相角逐的關(guān)鍵領(lǐng)域。人工智能作為當下人類社會發(fā)展的最高技術(shù)結(jié)晶,是和諧社會建構(gòu)的重要力量,與人完全可以由共處走向共生、共融。從人的全面發(fā)展看,技術(shù)的進步除了滿足人的生存需要外,它使人的思維得到拓展、個性得到解放,把人類推向了更高的自由。要以人的主體性為導向加強人工智能技術(shù)創(chuàng)新,搞好人類世界觀、價值觀的植入與融入,切實打造人與機器價值相同、理念相通的和諧共生世界。

        四、結(jié)語

        當前,我國正處于建設新時代中國特色社會主義重要階段,向科學進軍、向科技要生產(chǎn)力,已成為我國社會經(jīng)濟轉(zhuǎn)型的重要引擎。習近平總書記指出:“中國要強盛、要復興,就一定要大力發(fā)展科學技術(shù),努力成為世界主要科學中心和創(chuàng)新高地?!盵4](p246)人工智能作為新興產(chǎn)業(yè)技術(shù)的重要代表,在推動我國實現(xiàn)高質(zhì)量發(fā)展,開拓新時代中國特色社會主義現(xiàn)代化進程中發(fā)揮著重要作用。一方面,我們要按照科技強國要求,在日新月異的人工智能革命中搶先布局、贏得主動,在標準、制度等方面發(fā)出中國聲音、拿出中國方案,不斷提升技術(shù)創(chuàng)新在國家經(jīng)濟發(fā)展中的比重;另一方面,面對人工智能的滾滾浪潮,我們要從哲學的角度,撥開人工智能“萬能論”“威脅論”等迷霧,堅決立起批判發(fā)展的旗幟。既要看到人工智能給人類帶來的諸多便利,也要看到技術(shù)存在的些許弊端;既不能當技術(shù)的奴隸,為了技術(shù)而技術(shù),也不能重蹈“閉關(guān)鎖國”的覆轍,使自己落后于時代的發(fā)展。要始終從吸收利用、批判反思兩個維度,科學分析評價新興技術(shù)的作用限度,綜合權(quán)衡科技理性與價值理性的關(guān)系,切實發(fā)揮好科學技術(shù)對我國現(xiàn)代化建設的推動作用。

        猜你喜歡
        機器倫理人工智能
        《心之死》的趣味與倫理焦慮
        機器狗
        機器狗
        護生眼中的倫理修養(yǎng)
        活力(2019年19期)2020-01-06 07:37:00
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        未來機器城
        電影(2018年8期)2018-09-21 08:00:06
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 16:51:29
        無敵機器蛛
        久久午夜夜伦鲁鲁片免费无码| 蜜桃伦理一区二区三区| 亚洲女同一区二区久久| 国产一区二区三区在线观看蜜桃 | 激情综合色五月丁香六月欧美| 五月四房播播| 精品亚洲欧美无人区乱码| 欧美自拍丝袜亚洲| 在线免费观看视频播放| 日本韩国三级在线观看| 青青草狠吊色在线视频| 成人特黄a级毛片免费视频| 日本xxxx色视频在线播放| 亚洲中文字幕每日更新| 亚州毛色毛片免费观看| 日本久久黄色高清视频| 亚洲国产成人久久精品一区| 中文字幕日韩精品有码视频 | 欧美天天综合色影久久精品| 国产亚洲日韩一区二区三区| 野外三级国产在线观看| 日韩精品成人一区二区三区久久久| 三级日本午夜在线观看| 国模91九色精品二三四| 久久久久久久亚洲av无码| 中文字幕久久精品一二三区| 国产目拍亚洲精品一区二区| 午夜福利不卡无码视频| 日韩av他人妻中文字幕| 狠狠爱婷婷网五月天久久| 亚洲av无码一区东京热| 国产伦久视频免费观看视频| 国产精品美女| 国产人妖一区二区av| 全亚洲高清视频在线观看| 四虎永久在线精品免费网址| 国内精品卡一卡二卡三| 亚洲另类激情综合偷自拍图| 国产v精品成人免费视频400条 | 日韩在线看片| 国产成人av一区二区三|