王姍姍 袁斯來
“爸爸老是在講小冰,好像它是你的孩子一樣?!鄙蛳蜓笳f,自己的兒子有一天對他說了這樣一句話。
沈向洋對小冰的熱情,可以理解。小冰是微軟中國團隊2014年5月研發(fā)出的一款對話式人工智能,現(xiàn)已成為一個面向情商維度發(fā)展的人工智能系統(tǒng),已在五個國家落地。
10年前,軟件巨頭微軟正在經(jīng)歷互聯(lián)網(wǎng)的沖擊,很快,移動互聯(lián)網(wǎng)又來了。結(jié)果我們已經(jīng)看到了,雖然努力轉(zhuǎn)型,但在iOS和安卓的夾縫中,微軟的Windows Phone手機操作系統(tǒng)已基本告別市場。
微軟不想錯失下一個機會。在沈向洋看來,AI的到來,正沖擊著微軟整個公司的文化。“未來,AI將無處不在。”他表示,在語音識別、視覺識別等方面,10年后,機器甚至?xí)饺祟悾⒔o很多行業(yè)帶來顛覆性的改變。
但作為近10年技術(shù)變革的見證者,沈向洋也提醒,公司在抓住技術(shù)帶來的新機會的同時,也該開始思考一下由此產(chǎn)生的問題,比如AI倫理問題。
S:最令我震驚的一件事是,以前我從沒有想過聊天是剛需。大概四五年前,小冰的研發(fā)團隊跟我說,很多人實際上是需要和人聊天的,他們需要有人關(guān)心,也希望能夠關(guān)心別人?,F(xiàn)在,聊天已成為人們每天最重要的事。
S:加入情感。最主要的體現(xiàn)在兩點:一是了解對方,一是了解自己。我們做小冰時,發(fā)現(xiàn)聊天最多的時間點是晚上11點以后,很多人這時會有很多情緒的流露,小冰如何回應(yīng),是做這個產(chǎn)品時比較困難的一點。比如晚上12點了,用戶還在與小冰聊天,小冰會說“我實在是不行了,我要去睡覺了”,或者“你不應(yīng)該聊天,你明天還要上班”。意識到情感部分后,我們在研發(fā)過程中也會有一種敬畏感。
S:AI實際上是一個很基礎(chǔ)層面的東西。我們每年會舉行名為Everyday AI的活動,升級Office產(chǎn)品,讓W(xué)ord、PPT、Excel等等變得更智能。計算機視覺、計算機語音、閱讀理解,甚至翻譯,都可以加入智能元素,由此會帶來很多商機。
另外一點是人工智能帶來的沖擊,比如AlphaGo把我們所有對智能的追求全部給打垮了,現(xiàn)在都不知道應(yīng)不應(yīng)該讓小孩子去學(xué)圍棋。
S:有點像戰(zhàn)國時期。大家似乎還沒有想得很清楚,究竟AI落地到何處有最大的商業(yè)機會。
比如智能音箱,我們一開始覺得這個產(chǎn)品不是很靠譜,因為除了問天氣、問時間,它回答不了幾個問題。但很多人喜歡,在美國已經(jīng)有點主流化的感覺。我家里也有,我天天對它做測試,但是我太太就不會用,她覺得沒那么剛需。
其實微軟也做音箱,但我們做的是像Cortana這樣的智能助理,主要是幫助上班族,提醒新郵件,何時開會等等,還是圍繞Office產(chǎn)生的一些功能,這是我們的優(yōu)勢所在。
我們也在和亞馬遜的Alexa智能音箱合作,我們希望有Alexa的地方就可以有Cortana,它們可以實現(xiàn)互通。
S:薩提亞·納德拉成為CEO以后,我們的態(tài)度已經(jīng)慢慢改變了。現(xiàn)在我們就像是開茶館,來者都是客。
但我個人認為AI領(lǐng)域還有太多泡沫。有人曾問我,中國有這么多AI公司,它們的前途怎么樣?我說10年以后如果它們還存在的話,前途一定很好,但能不能活到10年后是另外一回事。因為現(xiàn)在真正落地的、帶來商業(yè)價值的東西還沒有那么多,但他們的方向是對的。
S:我們基本上是屬于“兩條腿走路”。第一我們是做平臺,比如在智能云上提供各種認知服務(wù)。第二是我們始終在思考新的AI應(yīng)用是什么?
現(xiàn)在微軟努力在做的一個方面是客服,我們認為這是真正有商業(yè)價值的,對于很多公司來說,它在今天是剛需。這里有很多可用技術(shù)提升的東西,很多公司都在做。
還有一個重要的應(yīng)用場景是醫(yī)療健康,美國一年有18.5%的GDP都用在醫(yī)療保險上面,這個數(shù)字還在加大,但美國人并沒有比英國人身體更好,英國一年只用9%的GDP做醫(yī)療。如果運用好AI技術(shù),至少會令這個系統(tǒng)更高效。
S:AI對于微軟公司整體的文化沖擊非常大。在移動互聯(lián)網(wǎng)時代,我們落后了,而接下來最大的顛覆,毫無疑問就是AI。以后智能云、AI將無處不在。
所以現(xiàn)在微軟,第一就是讓大家一定要認識到,未來是AI的世界,大家一定要去想新的產(chǎn)品在哪里;第二,不懂AI的人一定要去學(xué)AI;第三,我們對AI一定要有自己的看法。
S:我們比較樂觀,AI總體上是幫助人變得更好,變得更有效。所以我們希望AI是作為一個工具,幫助每個人、每個企業(yè)、每個開發(fā)者的。
AI中的很多技術(shù),5年內(nèi)會進步得非??臁N覀€人判斷,語音識別在5年之后就會超過人類,當(dāng)然現(xiàn)在它在遇到不同口音時還會有些問題,但大概5年內(nèi)就能克服。事實上,聽對方講話時,一般人大概有9%左右的誤差率,經(jīng)過專門訓(xùn)練的速記員可能誤差率在5.2%。而現(xiàn)在,我們的語音識別技術(shù)的誤差率已經(jīng)做到了5.1%,已經(jīng)超過人類了,而且這個數(shù)字還會越來越好。
另外視覺識別也是,我判斷,也就是10年左右的時間,機器會超過人類,由此帶來的商機是難以想象的。
S:在微軟,我們有幾個項目專門做這件事,比如AI for Good,會是和一些公益組織或政府合作一些環(huán)保和公益項目,比如AI for Accessibility(人工智能無障礙計劃),用AI技術(shù)幫助全球超過10億的殘障人士。我們覺得如同其他高科技,AI最重要的也是要造福人類,解決問題。
S:微軟內(nèi)部有一個AI倫理委員會,我和微軟公司總裁兼首席法務(wù)官施博德(Brad Smith)主持撰寫的一本新書里也提到了AI倫理問題。
它涉及的方面很多,比如偏見。最近美國一家媒體測試了包括微軟在內(nèi)的3家公司的相關(guān)軟件,發(fā)現(xiàn)如果是白人男子,識別出來的誤差率只有1%,但如果是黑人女子,誤差率就非常大了。因為告訴你ta是醫(yī)生,就會想象是男人;告訴你ta是護士,就會想象是女人—數(shù)據(jù)都是從生活中收集的,但生活本身就帶有偏見。
另外是誰負責(zé)的問題,比如自動駕駛,當(dāng)車的正前方有遮擋物時,往左偏會撞上老人,往右會撞上孩子,應(yīng)該往哪兒偏?人的話,可能就懵掉了,最后由警察解決問題,但AI在0.1毫秒內(nèi)就能作出決定,因為所有的東西都已經(jīng)編程,但你編程時是如何作決定?
對于這些AI倫理問題,我們還在一個很早期的學(xué)習(xí)階段。至少我個人希望,以后做任何產(chǎn)品,發(fā)布之前,應(yīng)該有一個倫理委員會—就像我們今天需要先通過安全委員會或隱私委員會的審核—這個委員會會審核一些你平時不會去想,但確實可能會遭遇的事情,你需要通過這些審核。
如今這些倫理問題都還沒有相關(guān)法律法規(guī)。通常就是這樣:新技術(shù)出來后會顛覆現(xiàn)有的社會常規(guī),政府會開始監(jiān)管,但監(jiān)管到一定程度,又會覺得這個東西有道理,會改變法律—技術(shù)變革就是這樣一步步走過來的。