當今世界正處于新冠肺炎疫情期間,我們面臨著一場全球性健康危機,能否有效地拯救生命取決于我們如何收集和有效利用數據。
眾多事件相互交叉、相互影響。它們影響到我們如何利用人工智能,如何利用我們的模型和數據,以及我們將如何從這里走向未來。
IBM的核心價值觀根植于權利平等。IBM的公司政策,可以追溯到1953年托馬斯·約翰·沃森所寫的(IBM公司)政策令第4號:確保IBM作為雇主將提供平等機會,確保IBM不會容忍因種族、膚色或宗教而產生的偏見。
今天,IBM現任CEO阿爾溫德·克里希納已肩負這項使命。
日前,阿爾溫德宣布IBM不再提供面容識別服務,因而切斷了一條可能會因其使用而在社會中造成偏見的途徑。他也將這一問題提升為一項公眾對話,以探討這項技術是否有意義,我們的社會應該如何應對。
但是,人工智能的可信、透明,不僅僅是面容識別,當我們收集的數據一旦投入使用,隱私問題就呈現出來。
倫理問題關乎這些數據如何使用和轉化,關乎我們的社會如何應對,所有涉及這些方面的倫理問題都亟須解決。
為此,IBM提供了一系列工具。我們也將其中的許多項目進行了開源。我們能夠提供一個由一系列Python庫組成的穩(wěn)健性工具包,能夠提供一個能在模型和數據中發(fā)現偏見的公平工具包,能夠提供一個可解釋性工具包,工具包可以讓你快速檢查你的潛在AI模型中的黑匣子,從而把這個黑匣子變成一個能識別其行為方式的工具。
同時, 我們也在著手AI Factsheets項目,該項目是關于我們如何追究模型的責任。比如,通過食物標簽上的信息,我們可以知道食物含有哪些東西。
現在,這些項目已經取得了進展。我們希望這些項目都置于其開放治理模式之下,Linux基金會人工智能機構(LF AI)的技術顧問委員會(TAC)目前已經投票贊成孵化這些項目。大家可看到其中三個項目已經發(fā)布,并通過LI AI機構開源。讓其他人加入,并公開影響和推動這些工作的進展,我們認為這對社會很重要。
這個團隊已經有很多非常重要的公司和大學參與其中,此外,還有“可信人工智能委員會”的參與,我們希望大家都能參加進來。
可信人工智能委員會一直在制定(人工智能)基本原則,而我們將充分遵照這些基本原則,使用由此而研發(fā)的AI技術所產生的數據和模型。
可信人工智能委員會工作組宣布了七項基本原則,即公平性、再現性、透明性、治理、隱私、安全和問責。這些是這個工作組正在研究的七項基本原則。
AI Factsheets已經提上議事日程,我們已經開始尋求其開源途徑。AIF360團隊與Scikit Learn和R Studio展開合作,現在已經可以在Learn和R Studio中使用了;Kubeflow MLOps流水線也已經發(fā)布,我們可用這些流水線進行公平性和對抗性檢測;Apache NiFi也已經接納MLOps,現在我們也有了可用的Apache NiFi處理器。所有的項目都取得了很大的進展,感謝一直以來為此做出貢獻的人們。
下面談談如何全面釋放開源的價值。
開源可以使數據更好地得到有效運用,數據影響到我們如何利用人工智能,如何利用我們的模型。我們已經開始尋求其開源路徑。
我們現在經歷的時代是史無前例的,各個組織也正在努力適應新的挑戰(zhàn),他們在竭力思考業(yè)務的開展方式。
IBM很幸運可以為客戶提供多種軟件產品支持解決方案,簡而言之,是為商業(yè)和社區(qū)開源軟件提供支持的解決方案。
半年前,為了深入了解我們的客戶在其企業(yè)中如何使用開源軟件,我們委托Forrester咨詢公司進行了一項研究。我們重點關注的領域不僅是客戶在使用開放技術開發(fā)解決方案方面,而且也包含客戶在部署和維護這樣的解決方案時所面臨的挑戰(zhàn)。所以,我們的目標是,解決客戶在大規(guī)模部署開源技術時面臨的一些關鍵性挑戰(zhàn)和阻礙。
現在,企業(yè)都在想辦法弄清楚如何推動業(yè)務向前發(fā)展,去適應更多不同的東西。所以,無論是遠程辦公,還是新模式的銷售、交付服務和產品,抑或是我們經常碰到的額外的成本壓力,都是我們要面對的挑戰(zhàn)。
先讓我們來談談“治理”這個話題,這是一個非常寬泛的話題。我們經常談到的“治理”是指,圍繞技術使用的管理系統(tǒng)的人員和流程進行創(chuàng)建。客戶將越來越多的開放技術用于關鍵任務的信息技術,同時,他們也在尋求更廣泛的服務幫助。
總之,所有挑戰(zhàn)都是良好治理解決方案的要素。
越來越多的組織在生產環(huán)境中使用社區(qū)開源軟件,但缺乏對這些產品的企業(yè)級技術支持,是他們面臨的最大挑戰(zhàn)。而這正是我們團隊有所作為的地方,我們可以為他們建立全方位的開放生態(tài)系統(tǒng)支持方案。