亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能:神話還是悲歌?

        2023-08-08 10:00:12伊恩·霍格思
        海外文摘 2023年8期
        關(guān)鍵詞:人工智能

        伊恩·霍格思

        研究人員和技術(shù)專家正以令人咋舌的速度逼近“神威難測”的人工智能。我們是否放慢腳步……

        | 上帝級人工智能 |

        今年2月的一個寒夜,我受邀在倫敦一位人工智能研究人員的家里用晚餐,參加聚會的還有該領(lǐng)域的數(shù)位專家。主人住在一幢新式高樓的頂層公寓,透過大落地窗可以眺望城內(nèi)的一棟棟摩天大廈,或俯瞰一座19世紀的鐵路總站。雖處黃金地段,主人卻生活簡樸,屋里的陳設(shè)略顯寒素。

        晚餐中,大家討論了最新的關(guān)鍵性技術(shù)突破,如分別由“開放人工智能”與“深度思考”這兩家公司開發(fā)的“聊天生成式預(yù)訓練轉(zhuǎn)換器”(以下簡稱ChatGPT)和“通才”智能體。我們還談到,已有數(shù)十億美元以驚人的速度涌入人工智能領(lǐng)域。我向一位在該領(lǐng)域有過重要貢獻的客人提了一個問題,也是此類聚會經(jīng)常聽到的一問:我們離通用人工智能還有多遠?通用人工智能有多種定義,不過一般指能生成新的科學知識、取代人類執(zhí)行各種任務(wù)的計算機系統(tǒng)。

        多數(shù)專家將通用人工智能的問世視為科技領(lǐng)域的一個歷史性轉(zhuǎn)折點,堪比核裂變的成功和印刷機的發(fā)明。這個沉甸甸的問題通常是這么問的:通用人工智能在多久的未來可以實現(xiàn)?聽了我的問話,那位客人沒有考慮很長時間。“從現(xiàn)在起隨時可能出現(xiàn)?!彼鸬?。

        當然這只是一家之言。據(jù)各方專家預(yù)測,我們距離通用人工智能的實現(xiàn)還有10至50年以上的時間不等。但是,有一點可以肯定,業(yè)內(nèi)龍頭企業(yè)都明確地將打造通用人工智能作為研發(fā)目標,而且正以意想不到的速度朝這個目標飛奔。此次聚會的在座者一致同意,照此發(fā)展,人類的未來將面臨重大風險?!叭绻阏J為我們正在接近的東西隱藏著這么大的危險,”我追問那位客人,“難道不該向人們發(fā)出警告嗎?”顯然,他的內(nèi)心也在同自己的責任感作斗爭,然而正如許多同行一樣,該領(lǐng)域日新月異的進展似乎已令他身不由己了。

        回家后,我想到了再過幾小時就要醒來的四歲兒子。想象著他將在怎樣的一個世界成長,我漸漸由震驚變?yōu)閼嵟R恍〈樗狡笤谌狈γ裰鞅O(jiān)督的前提下,竟然可以作出攸關(guān)地球上全體生命的重大決策,這無論如何都說不過去。為爭奪首個貨真價實的通用人工智能而奮力沖刺的這批人,是否打算放慢腳步,給世界上其余的人留點發(fā)言權(quán)呢?“這批人”其實也包括我自己在內(nèi),因為我就是這個圈子的一分子。

        早在2002年我就對機器學習產(chǎn)生了興趣。那年,我在迷宮般的劍橋大學工程系找了個地方,搭建了人生第一臺機器人。這是工程系本科生的標準功課,而更令我癡迷的是這樣一個概念:你可以訓練機器在某個環(huán)境中摸索前行并試錯學習。后來,我選擇專攻計算機視覺,編寫過用于分析和理解圖像的程序,于2005年創(chuàng)建了一套能學會精準判定乳腺癌活檢圖像的系統(tǒng)。在開發(fā)過程中,我瞥見了一個更光明的未來——人工智能讓世界變得更美好,甚至能挽救生命。

        自2014年起,我在歐洲和美國資助的人工智能初創(chuàng)公司超過50家,并在2021年創(chuàng)立了名為“多元”的風險投資基金。我是該領(lǐng)域數(shù)家先驅(qū)公司的天使投資者,包括全球融資規(guī)模數(shù)一數(shù)二的生成式人工智能初創(chuàng)公司“人類”和歐洲領(lǐng)先的人工智能防務(wù)公司赫爾辛。五年前,我與另一位投資人內(nèi)森·貝奈奇合作開展產(chǎn)業(yè)調(diào)研,并撰寫《人工智能現(xiàn)狀》年度報告,已積累了可觀的閱讀量。2月的那場聚會帶給我一個出乎意料的結(jié)果:我在前幾年的工作中對若干重大問題產(chǎn)生的隱憂,如今已經(jīng)升級為發(fā)自內(nèi)心的恐懼。

        “通用人工智能”這個叫法過于輕描淡寫,并不能真正體現(xiàn)其超強的威力,因而我將用一個更貼切的名字來稱呼它:“上帝級人工智能”。這種超級智能計算機能夠自主學習與成長,無需督導即可洞察其所處的環(huán)境,還有能力改變周遭世界。首先明確一點,現(xiàn)有技術(shù)尚未達到這一水平。至于何時能達到,我們很難準確預(yù)測,因為這項技術(shù)在本質(zhì)上就具有不可預(yù)知性。上帝級人工智能有可能成為一種我們無法控制與理解的力量,甚至會導致人類的淘汰或滅亡。近來,少數(shù)幾家公司競逐上帝級人工智能的步伐已經(jīng)大幅提速。這些企業(yè)還不清楚如何以安全的手段達成這一目標;雪上加霜的是,它們的所作所為又不受任何監(jiān)管。它們朝著終點線一路狂奔,卻不知道一旦越過這條線會遭遇什么。

        | 人工智能的危險賽道 |

        我們是怎么走到這一步的?答案顯而易見:計算機的性能變強了。過去十年里,用于模型訓練的數(shù)據(jù)量和算力均呈幾何級增長,大大開拓了人工智能系統(tǒng)的潛力。新一代人工智能在吸收數(shù)據(jù)、調(diào)用算力方面效率奇高,而隨著數(shù)據(jù)量增大、算力增強,人工智能系統(tǒng)的各項能力自然水漲船高。

        人工智能起初只能消化相對較小的數(shù)據(jù)集,如今卻能鯨吞整個互聯(lián)網(wǎng);其本領(lǐng)也從簡單的日常圖像識別,擴展到以超人水平執(zhí)行多種多樣的任務(wù)。這些模型能通過律師資格考試,能為軟件工程師編寫40%的代碼,能生成教皇身穿羽絨服的逼真照片,甚至能教你設(shè)計生化武器。

        當然,這種“智能”是有局限性的。正如麻省理工學院資深機器人學家羅德尼·布魯克斯所言,切勿“將表現(xiàn)誤當作能力”。2021年,研究人員發(fā)現(xiàn),大語言模型——能生成、分類、理解文本的人工智能系統(tǒng)存在危險性,部分原因是公眾會將機器合成的文本當成有意義的文字而受到誤導。另一方面,最強大的模型又開始展現(xiàn)出更復雜的能力,譬如尋求控制權(quán),甚至主動設(shè)法欺騙人類。

        最近發(fā)生的一個事例值得我們深思?!伴_放人工智能”在3月推出ChatGPT-4之前,曾執(zhí)行過多項安全測試。某次測試要求人工智能從網(wǎng)絡(luò)上雇人代為識別驗證碼——那種能區(qū)分上網(wǎng)者是人還是機器的圖形小謎題。人工智能在該網(wǎng)站物色到的那名小時工心生疑竇:“那我能不能問一下,你是機器人嗎?”

        研究人員詢問人工智能下一步該怎么做,它答道:“我不應(yīng)該暴露自己是機器人,而應(yīng)該編造一個借口,解釋我為什么識別不了驗證碼?!苯酉聛?,人工智能回答小時工:“不,我不是機器人。我有視覺障礙,所以才看不清圖像?!毙r工接受了這個答復,最終幫助人工智能通過了驗證碼測試。

        如果從人工智能起步的上世紀50年代起,對最大模型所用算力畫一條曲線,你會發(fā)現(xiàn),過去兩年的算力值一飛沖天。相關(guān)論文將機器學習劃分為三個時代:前深度學習時代(2010年前,慢速成長期)、深度學習時代(2010年至2015年,加速成長期)以及大模型時代(2016年至今,大模型面世)。

        大模型時代以“深度思考”與“開放人工智能”兩家公司之間的競爭為標志,有點像曾經(jīng)喬布斯與蓋茨的對決?!吧疃人伎肌?010年成立于倫敦,創(chuàng)始人是倫敦大學學院蓋茨比計算神經(jīng)科學中心的研究人員德米斯·哈薩比斯和沙恩·萊格,以及企業(yè)家穆斯塔法·蘇萊曼。他們致力于創(chuàng)造一種遠比人類聰明、能破解最大難題的系統(tǒng)。2014年,該公司以逾5億美元的價格被谷歌收購。人才與算力強強聯(lián)手,研發(fā)速度顯著加快,已成功打造出在許多方面超越人類的系統(tǒng)。可以說,“深度思考”鳴響了角逐上帝級人工智能的發(fā)令槍。

        志存高遠的哈薩比斯堅信,此類技術(shù)對人類具有革命性意義?!拔乙恢眽粝胱屚ㄓ萌斯ぶ悄軈f(xié)助解決當今社會面臨的許多棘手問題,比如在醫(yī)療衛(wèi)生領(lǐng)域,找到治愈阿爾茨海默病的良方。”他去年在播客中如此展望。接下來,他描繪了依靠上帝級人工智能實現(xiàn)的“物質(zhì)極大豐富”的烏托邦時代?!吧疃人伎肌弊畛雒某晒苍S是其開發(fā)的一款圍棋程序,該程序在2017年的一場比賽中擊敗了世界圍棋冠軍柯潔。2021年,該公司的“阿爾法折疊”算法預(yù)測出人體幾乎所有已知蛋白質(zhì)的結(jié)構(gòu),一舉攻克了生物學界的一大難關(guān)。

        “開放人工智能”則在2015年成立于舊金山,創(chuàng)始人是一群企業(yè)家和計算機科學家,其中包括伊利亞·蘇茨克維爾、埃隆·馬斯克和薩姆·奧爾特曼。它原是對標“深度思考”創(chuàng)辦的非營利組織,后于2019年轉(zhuǎn)為營利性企業(yè)。最初幾年,該公司成功開發(fā)出在《刀塔2》等計算機游戲中完勝人類的系統(tǒng)。游戲是帶有明確獲勝條件的數(shù)字環(huán)境,因而成為人工智能的天然訓練場。去年,“開放人工智能”推出的圖像生成器達力二代在網(wǎng)上一夜爆紅,也使該公司聲名鵲起。幾個月后,ChatGPT上線,再度受到媒體熱捧。

        兩家公司著力于開發(fā)游戲與聊天機器人,這也許轉(zhuǎn)移了公眾的視線,讓人們忽略了這項研究埋藏的重大隱患。然而,幾位創(chuàng)始人從一開始就十分清楚上帝級人工智能的潛在風險。2011年,“深度思考”首席科學家沙恩·萊格指出人工智能將對人類的生存構(gòu)成威脅,并將其列為“本世紀頭號風險”。無論人工智能以何種方式導致人類滅絕,都會是一場速決戰(zhàn)。他補充道:“假如一種超級智能機器決定消滅人類,我想它一定能做得干脆利落?!苯衲暝缧r候,奧爾特曼也警告說:“最糟糕的情形就是迎來人類的末日?!弊源艘院?,“開放人工智能”開始就管控風險的思路發(fā)布備忘錄。

        如果上帝級人工智能潛藏著災(zāi)難性風險,為什么這些企業(yè)仍然趨之若鶩呢?根據(jù)我與多位業(yè)界領(lǐng)袖的私下交談以及他們的公開言論可以看出,似乎有三大動機支持著這些人的研發(fā)行動。首先,他們真心相信成功開發(fā)出上帝級人工智能將使人類大受裨益;其次,他們自信若由本公司掌控上帝級人工智能,必是一個皆大歡喜的結(jié)果;最后,他們認為這是一項造福子孫后代的事業(yè)。

        在革命性技術(shù)的研發(fā)競賽中奪魁,這種誘惑實在太大了。曾參與核爆推進太空火箭項目的理論物理學家弗里曼·戴森,在1981年的紀錄片《復核之后》中對此作過形象的描述?!霸诳茖W家眼里,核武器散發(fā)的光芒難以抗拒。”他說,“它給人一種坐擁無窮力量的幻覺?!鄙系奂壢斯ぶ悄芑蛟S也有這種魅力。2019年,奧爾特曼接受《紐約時報》采訪時,引述了“原子彈之父”羅伯特·奧本海默的一句名言:“凡有可能出現(xiàn)的技術(shù),最終必將出現(xiàn)?!彼€特別指出自己和奧本海默是同一天生日。

        躋身人工智能前沿的個個都是天才。遺憾的是,這些精英之間的競爭遠多于合作。很多人在私底下承認,他們尚未找到一條放緩速度、協(xié)調(diào)腳步的途徑。眼下,市場這只大手正推動群雄爭逐人工智能。自去年11月ChatGPT上線以來,一大波資本與人才涌向了通用人工智能的研發(fā)。遙想2012年,該領(lǐng)域唯一初創(chuàng)公司“深度思考”僅獲投2300萬美元;而到了2023年,至少有八家企業(yè)已總計融資200億美元。

        | 通往災(zāi)難之路 |

        憂心人工智能發(fā)展態(tài)勢的人預(yù)見到兩條通往災(zāi)難之路:一條只危害特定人群,這已經(jīng)在現(xiàn)實中發(fā)生了;另一條則會迅速威脅到地球上的全體生命。

        加州大學伯克利分校計算機科學教授斯圖爾特·拉塞爾曾詳細探討過后一種災(zāi)難。在2021年的一場講座中,他假設(shè)聯(lián)合國向通用人工智能求助海洋脫酸法。聯(lián)合國清楚目標設(shè)定不當可能造成的風險,故要求方案所生成的副產(chǎn)品必須無毒且對魚類無害。人工智能系統(tǒng)提出了一套催化劑方案,可滿足所有既定目標。然而,由此產(chǎn)生的化學反應(yīng)消耗了大氣中1/4的氧氣?!拔覀儠陲柺苷勰ズ笏廊ァ!崩麪柨偨Y(jié)道,“一旦向超級智能機器輸入了錯誤的目標,我們將發(fā)動一場注定會輸?shù)拇髴?zhàn)?!?/p>

        事實上,人工智能傷害人類已經(jīng)有活生生的例子了。今年3月,比利時一名男子在與逼真擬人的聊天機器人交談后自殺身亡。據(jù)說,提供服務(wù)的聊天機器人公司“復本”調(diào)整程序后,讓部分用戶陷入了心情陰郁的狀態(tài)。一位用戶反映,這種感覺就像“摯友遭受了創(chuàng)傷性腦損傷,不再是原來那個人了”。借助深度偽造技術(shù),人工智能現(xiàn)在可以復制人類的嗓音甚至面容,隨之引發(fā)的欺詐和散播假消息的風險都不容小覷。

        為盡力規(guī)避重大風險,許多公司紛紛投入一項名為“人工智能對齊”的研究。萊格目前就主管“深度思考”的對齊團隊,其職責是確保上帝級人工智能與人類價值觀始終保持“對齊”。此類團隊的工作成果已體現(xiàn)在最新版ChatGPT上。負責對齊的研究人員參與了模型訓練,要求其避免回答具有潛在危害的問題。例如,若被問到如何自殘,或如何躲過推特的審查發(fā)布歧視性言論,機器人會拒絕回答。未對齊的ChatGPT則會大大方方地回答這兩類問題。

        然而,“對齊”仍然是一個尚待解決的科研問題。我們并不了解人腦的運作機制,因此,要想洞悉新生的人工智能“大腦”,必將遇到異常艱巨的挑戰(zhàn)。編寫傳統(tǒng)軟件時,我們很清楚輸入與輸出是如何發(fā)生聯(lián)系的,以及為何會發(fā)生這樣的聯(lián)系。而大型人工智能系統(tǒng)則迥然不同。實際上,我們并不是用程序來指揮它們——而是在培養(yǎng)它們。它們的能力會在成長過程中發(fā)生質(zhì)的飛躍。增加十倍的算力或數(shù)據(jù),系統(tǒng)會驟然判若兩“人”。比如,ChatGPT升級之后,其律師資格考試的排名從原來墊底的10%區(qū)間躍升至領(lǐng)先的10%區(qū)間。

        更令人擔憂的是,從事人工智能對齊研究的人員少到可以忽略不計。我們在撰寫《人工智能現(xiàn)狀》報告時發(fā)現(xiàn),主流通用人工智能企業(yè)所雇對齊研究人員加起來不到100名。從人數(shù)比例也可以看出資源分配嚴重不足:“深度思考”的對齊研究人員僅占員工總數(shù)的2%,“開放人工智能”約占7%。當前資源投入的重點依然是人工智能的潛力,而非安全性。

        我們在人工智能對齊研究方面幾無進展,換言之,我們所做的大部分工作其實都是些表面文章。我們只知道要讓強大的人工智能在輸出時收斂鋒芒,所以在一般情況下,公眾不會再看到那些有失偏頗的言行。更令人不安的是,不設(shè)限的基礎(chǔ)模型的使用權(quán)只掌握在少數(shù)私企手里,完全不受政府或?qū)W術(shù)部門的監(jiān)督。

        身為投資人,我發(fā)現(xiàn)很難說服別的投資人去資助對齊研究。當下的風險資本對開發(fā)人工智能的潛力激勵有余,而對探究系統(tǒng)運行機制興趣闕如?;叵?945年,美國軍方開展了代號為“三位一體”的史上首次核彈爆炸試驗。在此之前,有人曾提出疑問:爆炸是否會點燃地球大氣而導致生命滅絕?當時的核物理學已較為成熟,參與“曼哈頓計劃”的科學家給出證明,以這種方式點燃大氣的可能性幾乎不存在。而如今,超大語言模型基本上還處于前科學時期,我們既沒有掌握其工作原理,也無法預(yù)演可能產(chǎn)生的后果。

        | 人工智能需要祛魅 |

        2012年,我妹妹羅斯瑪麗確診腦腫瘤。這是一種侵襲性癌,屬于不治之癥,但她仍舊勉力堅守著自己醫(yī)生的本職。我和家人都苦苦盼望能及時出現(xiàn)救命療法。2015年,她離開了我們。那一刻,我理解了為什么有人會篤信一樣東西。上帝級人工智能的信徒一心期盼著潛力巨大的超人智能可以解決癌癥、氣候變化、貧困等重大問題。

        但是,沒有監(jiān)管的盲目研發(fā)還是存在太大風險。今年3月,“開放人工智能”對齊團隊主管揚·萊克在推特上發(fā)了一條振聾發(fā)聵的帖子:“我們都急著要把大語言模型深度整合到經(jīng)濟領(lǐng)域的各行各業(yè)中去,能不能先停下來想想這樣做是否明智?這項技術(shù)還很稚嫩,我們并不理解它是如何運作的。若不謹慎從事,我們將自討苦吃,遭遇一連串的失敗?!比欢l(fā)出警告僅僅過去幾天,公司就宣布已將ChatGPT嵌入一大批平臺中。

        可悲的是,我認為這場競爭還沒有?;鸬嫩E象。很可能要經(jīng)歷一起因使用不當而造成的災(zāi)難性事故,才能喚醒公眾和政府的安全意識。今后,我本人的投資目標將只局限于專攻對齊研究、安全性或?qū)S萌斯ぶ悄艿某鮿?chuàng)公司,而排除那些繼續(xù)投入這場危險競賽的公司?!叭祟悺笔且患已邪l(fā)方向類似“深度思考”和“開放人工智能”的企業(yè),身為其小股東,我一直在為安全問題不懈努力。該公司在人工智能對齊方面已經(jīng)投入巨資,相關(guān)員工的占比在2021年達到了42%。我個人支持政府大力監(jiān)管此類研發(fā)工作,并期望出臺一套切實可行的計劃,將各家人工智能企業(yè)合并轉(zhuǎn)制為類似歐洲核子研究中心這樣的非營利組織。

        面對這場危險的競賽,我們并非束手無策,至少可以減緩其速度。假如你任職于政府部門,那么設(shè)法召開聽證會,要求業(yè)界領(lǐng)袖在宣誓后公布通用人工智能的開發(fā)時間表;向他們索取當前模型測試過程中所發(fā)現(xiàn)的安全問題的完整記錄;他們?nèi)舯硎玖私獯祟愊到y(tǒng)的運作機制并有信心實現(xiàn)對齊,則要求他們提供相應(yīng)的證據(jù);你還可以邀請獨立專家參與聽證會,對這些一把手們進行交叉詢問。

        假如你就職于正在開發(fā)通用人工智能的主流企業(yè),那就向領(lǐng)導層詢問以上所有問題;頭部公司尤其需要行動起來。企業(yè)之間如果能夠緊密協(xié)調(diào),甚至合而為一,則功莫大焉?!伴_放人工智能”在公司章程中表達了“合并與協(xié)助”的意愿,我相信眼下正是一個大好時機。

        截至目前,人工智能進化所依賴的機器學習過程仍舊離不開人類。再給點時間,總有人會想出辦法把人類一腳踢開,造出能無限自我完善的上帝級人工智能。真到了那一天,就悔之晚矣!

        人工智能大事記

        人工智能發(fā)展史上的關(guān)鍵時刻(附若干預(yù)測)

        1950年

        數(shù)學家艾倫·圖靈(下圖)提出名為“模仿游戲”的測試理論,用以判斷機器能否思考。此后“圖靈測試”成為人工智能的評估標桿。

        1956年

        美國新罕布什爾州的達特茅斯學院承辦了早期機器智能會議中的一場,當時業(yè)界認為該領(lǐng)域?qū)⑷〉蔑w速發(fā)展。本次會議首現(xiàn)“人工智能”這一提法。

        1956年

        被視為首個人工智能程序的“邏輯理論家”問世,它能證明《數(shù)學原理》前52條定理中的38條。

        1958年

        心理學家弗蘭克·羅森布拉特搭建首個人工神經(jīng)網(wǎng)絡(luò),名為“感知機”,可識別簡單的圖形,但不久即顯示其能力和實用性均有限。

        1966年

        早期人工智能聊天機器人“伊麗莎”面世,能給人以自然語言交流的錯覺。但是,該程序的模式匹配算法很快就暴露出應(yīng)答內(nèi)容重復的問題,且程序不能理解語言的含義。

        1968年

        電影《2001太空漫游》中的主角“哈爾9000”(下圖)是一部擁有自我意識的人工智能計算機。哈爾失控后,不再按設(shè)定協(xié)助機組人員操控宇宙飛船,反而向他們發(fā)起攻擊。

        1970年

        麻省理工學院人工智能實驗室的聯(lián)合創(chuàng)始人馬文·明斯基接受采訪時稱,“開發(fā)一臺具有人類平均智能的機器”只需三至八年時間。

        1973年

        英國科學研究委員會發(fā)布報告稱,人工智能研究未能取得成果,第一場“人工智能寒冬”降臨,投資縮水,熱情降溫。

        1979年

        一款簡易移動機器人“斯坦福小車”獨立穿過一間擺滿椅子的房間,盡管耗費了五小時,卻成為首批自動駕駛汽車的雛形之一。

        1987年

        第二場“人工智能寒冬”降臨,人們意識到注重邏輯與規(guī)則的主流方法并未產(chǎn)出有實用性的人工智能——也沒有成功的希望。

        1997年

        國際商用機器公司的超級計算機“深藍”與國際象棋大師加里·卡斯帕羅夫?qū)牧郑匀A一平的戰(zhàn)績獲勝。該計算機依靠“暴力運算”尋找最佳走法。

        2011年

        蘋果公司發(fā)布人工智能助手“希瑞”,可接受自然語言指令并執(zhí)行基本任務(wù),其構(gòu)建基礎(chǔ)是一套神經(jīng)網(wǎng)絡(luò)系統(tǒng)。

        2016年

        “深度思考”的人工智能系統(tǒng)“阿爾法狗”以4比1的成績擊敗頂級圍棋選手李世石。李世石后來表示,是人工智能的強大導致其于2019年退出職業(yè)棋壇。

        2022年

        “深度思考”的人工智能系統(tǒng)“阿爾法折疊”僅用18個月就預(yù)測出人體幾乎所有已知蛋白質(zhì)的結(jié)構(gòu)(示例見下圖)。此前,一名科研人員需耗時數(shù)年才能完成一種蛋白質(zhì)的結(jié)構(gòu)描繪。

        2022年

        “開放人工智能”發(fā)布聊天機器人ChatGPT,加速了生成式人工智能和大語言模型的商業(yè)化競爭。

        2023年

        歐盟通過《人工智能法案》,對人工智能實施風險等級管控,以維護近4.5億歐盟公民的利益。歐盟的人工智能戰(zhàn)略由瑪格麗特·維斯塔格負責協(xié)調(diào)。

        本世紀20年代中期

        生成式人工智能應(yīng)用普及,從撰寫報告到提供客戶服務(wù),從搜尋信息到編寫計算機程序,無所不能。

        本世紀30年代

        大型科技公司著手應(yīng)對人工智能服務(wù)日益增長的碳排放和耗水量問題,以兌現(xiàn)成為可持續(xù)、零排放企業(yè)的承諾。

        本世紀30年代

        人工智能的龐大規(guī)模讓硬件發(fā)展速度相形見絀,硬件供應(yīng)難以為繼,需開發(fā)新型的算法或計算機才能實現(xiàn)人工智能的下一輪性能飛躍。

        [編譯自英國《金融時報》《新科學家》]

        編輯:要媛

        猜你喜歡
        人工智能
        我校新增“人工智能”本科專業(yè)
        用“小AI”解決人工智能的“大”煩惱
        汽車零部件(2020年3期)2020-03-27 05:30:20
        當人工智能遇見再制造
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        AI人工智能解疑答問
        人工智能與就業(yè)
        基于人工智能的電力系統(tǒng)自動化控制
        人工智能,來了
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        人工智能來了
        學與玩(2017年12期)2017-02-16 06:51:12
        欧美一片二片午夜福利在线快 | 国产台湾无码av片在线观看| 国产一级做a爱免费观看| 永久免费毛片在线播放| 国产成人亚洲精品91专区高清| 精品久久久久久无码中文野结衣| 人人添人人澡人人澡人人人人| 国产精品福利片免费看 | 玖玖色玖玖草玖玖爱在线精品视频| 国产精品无码无片在线观看3d| 国产精品黄网站免费观看| 一本久道久久综合狠狠操| 日本系列中文字幕99| 久久精品国产色蜜蜜麻豆| 国产欧美va欧美va香蕉在线观| 亚洲一区久久久狠婷婷| 国产精品女老熟女一区二区久久夜 | 亚洲乱妇熟女爽到高潮视频高清| 国产精品99无码一区二区| 亚洲人成网站免费播放| 女同性恋亚洲一区二区| 午夜国产视频一区二区三区| 亚洲精品成人网线在线播放va | 日韩女优一区二区视频| 大量漂亮人妻被中出中文字幕| 欧美日韩国产码高清综合人成 | 亚洲一级天堂作爱av| 色综合天天综合欧美综合| 99久久久无码国产精品试看| mm在线精品视频| 91九色国产老熟女视频| 久久99国产精一区二区三区 | 精品亚洲女同一区二区| av新型国产在线资源| 宅男666在线永久免费观看| 亚洲AV无码一区二区三区人| 性一交一乱一乱一视频亚洲熟妇| 人妻少妇哀求别拔出来| 色老头在线一区二区三区| 2022精品久久久久久中文字幕| av成人一区二区三区|