網(wǎng)易智能訊 10月15日消息】AI仍在繼續(xù)興起,盡管它并沒有成為人們所期待的那種廣泛性力量。在過去幾年中,AI領(lǐng)域的發(fā)展速度令人震驚。自2000年以來,活躍的AI初創(chuàng)企業(yè)數(shù)量增加了14倍,風投對AI初創(chuàng)企業(yè)的投資增加了6倍,需要AI技能的工作比例增長了4.5倍。
不過,領(lǐng)先的互聯(lián)網(wǎng)數(shù)據(jù)統(tǒng)計機構(gòu)Statista發(fā)布的調(diào)查結(jié)果顯示,截止2017年,全球只有5%的企業(yè)在其流程和產(chǎn)品中廣泛采用了AI,32%的企業(yè)尚未采用AI,22%的企業(yè)甚至沒有采用AI的計劃。知名AI研究人員菲利普·皮恩尼斯基(Filip Pieniewski)最近在科技媒體Venturebeat上撰文,闡述了他的觀點,宣稱“AI寒冬即將到來?!?/p>
皮恩尼斯基說:“我們現(xiàn)在正處于2018年中后期,AI領(lǐng)域的情況已經(jīng)發(fā)生了變化。盡管表面上看似乎并非如此,比如NIPS會議仍然超受歡迎,企業(yè)公關(guān)團隊在新聞發(fā)布會上仍然充斥著AI,美國連續(xù)創(chuàng)業(yè)家伊隆·馬斯克(Elon Musk)仍在承諾打造無人駕駛汽車,谷歌也始終在推動吳恩達(Andrew Ng)的理念,即AI比電力更強大。但這種敘述已經(jīng)開始崩潰?!?/p>
我們極力宣傳無人駕駛汽車的愿景。今年春天早些時候,一名行人被無人駕駛汽車撞死,這一事件引起了人們的警覺,人們不僅質(zhì)疑這項技術(shù),還質(zhì)疑無人駕駛系統(tǒng)決策的背后是否存在道德問題。無人駕駛汽車的問題不是在挽救1個人還是5個人之間做出簡單的二元選擇,而是在演變成一場關(guān)于良知、情感和感知的辯論,使機器做出合理決策的道路變得更加復雜。
皮恩尼斯基等人得出的結(jié)論是:全自動無人駕駛汽車的夢想可能比我們想象的遙遠得多。AI專家們越來越擔心,無人駕駛系統(tǒng)要想可靠地避免事故,可能還需要數(shù)年甚至數(shù)十年時間的努力。”
| 所謂的AI落地只是試點
讓我們以史為鑒來看下,云計算和網(wǎng)絡(luò)工業(yè)都花了大約5年的時間才開始對人們的生活產(chǎn)生重大影響,而這些行業(yè)影響市場的重大轉(zhuǎn)變也花了近10年時間。我們正在為AI設(shè)想一個類似的時間表。正如平臺技術(shù)、開源和封閉源系統(tǒng)以及AI技術(shù)方面經(jīng)驗豐富的工程主管凱倫·班尼特(Karen Bennet)解釋的那樣:
“為了讓每個人都能采用,一款產(chǎn)品需要方便可用,需要是能夠擴展至被所有人使用,而不僅僅是服務(wù)于數(shù)據(jù)科學家。該產(chǎn)品將需要考慮數(shù)據(jù)生命周期中數(shù)據(jù)捕獲、準備、培訓模型和預(yù)測等環(huán)節(jié)。隨著數(shù)據(jù)被存儲在云端,數(shù)據(jù)管道可以不斷地提取,并準備用它們來訓練模型,從而做出預(yù)測。模型需要借助新的訓練數(shù)據(jù)不斷改進,從而保持模型的相關(guān)性和透明性。這就是目標和希望?!?/span>
我(本文作者杰西·瓊斯(Jessie Jones))和班尼特都來自科技和AI初創(chuàng)企業(yè)。我們所見證的以及在AI社區(qū)中與同行討論中我們所意識到的是,我們正在眾多商業(yè)問題上進行廣泛的實驗,然而這些實驗往往停留在實驗室中。這篇最近的文章證實了當今普遍存在的AI炒作問題:
“AI技術(shù)供應(yīng)商往往會受到激勵,讓他們的技術(shù)聽起來比實際中更強,但這也暗示了它們在現(xiàn)實世界中的吸引力比實際上更大……企業(yè)中的大多數(shù)AI應(yīng)用程序不過是‘試點’。在AI領(lǐng)域兜售營銷解決方案、醫(yī)療保健解決方案和金融解決方案的供應(yīng)商,基本上只是在測試這項技術(shù)。在任何特定的行業(yè)中,我們發(fā)現(xiàn),在銷售AI軟件和技術(shù)的數(shù)百家供應(yīng)商中,只有大約三分之一的公司具備開發(fā)AI所需的技能?!?/p>
風投公司意識到,他們可能在一段時間內(nèi)看不到投資回報。然而,AI還沒有準備好迎接黃金時段的到來,原因之一就在于幾乎無處不在的AI實驗幾乎都沒有看到曙光。
| 算法需要負責任嗎
我們聽說過AI“黑箱”,即研究人員目前還不清楚AI如何做出決策。這種做法是在銀行和大型機構(gòu)面臨要求問責制的合規(guī)標準和政策的情況下出現(xiàn)的。由于系統(tǒng)是作為“黑箱”操作的,只要這些算法的創(chuàng)建經(jīng)過了審查,并且滿足了關(guān)鍵涉眾的一些標準,人們就可能對算法產(chǎn)生固有的信任。
鑒于大量證據(jù)表明開發(fā)中的算法存在缺陷,以及由此產(chǎn)生意想不到的有害結(jié)果,這種觀點很快就引發(fā)了爭議。我們的許多簡單系統(tǒng)都像“黑箱”一樣運作,超出了任何有意義的審查范圍,原因包括公司有意保密、缺乏足夠的教育以及缺乏了解如何批判性地檢查輸入、結(jié)果,最重要的是,不理解為何會出現(xiàn)這些結(jié)果。
班尼特表示:“如今,AI行業(yè)正處于企業(yè)準備采用的早期階段。AI是非常有用的,可以通過大量的數(shù)據(jù)進行發(fā)現(xiàn)和分析,但是它仍然需要人類的干預(yù)作為對數(shù)據(jù)及其結(jié)果進行評估和行動指南。”
圖:截至2017年,全球商業(yè)組織中的人工智能的采用水平
班尼特還澄清說,如今的機器學習技術(shù)使數(shù)據(jù)能夠被標記出來,以幫助識別真知灼見。然而,作為這個過程的一部分,如果有些數(shù)據(jù)被錯誤地標記,或者沒有足夠的數(shù)據(jù)訓練,亦或者有問題的數(shù)據(jù)產(chǎn)生偏見,很可能會出現(xiàn)糟糕的決策結(jié)果。她還表示,目前的流程仍在不斷完善:“目前,AI都是關(guān)于決策支持的,以提供洞察,讓企業(yè)可以從中得出結(jié)論。在AI發(fā)展的下一個階段,AI可將數(shù)據(jù)中的動作自動化,還有些額外的問題需要解決,比如偏見、可解釋性、隱私性、多樣性、倫理和持續(xù)的模型學習等?!?/p>
這表明,要想真正理解AI產(chǎn)品,需要有個關(guān)于對象和人的常識世界模型,以幫助AI去真正了解它們。一個模型只暴露在有限數(shù)量的標記對象和有限種類的訓練中,這將限制這個常識世界模型的有效性。企業(yè)需要進行研究,以確定模型如何處理其輸入,并以人類可以理解的方式得出其結(jié)論。亞馬遜發(fā)布的面部識別技術(shù)Rekognition,是目前正在研發(fā)和許可使用的AI技術(shù)的典型例子,但其有效性存在明顯的差距。
美國公民自由聯(lián)盟發(fā)布的一項研究稱:“亞馬遜的技術(shù)將28名國會議員的照片與罪犯公開的臉部照片混淆了。鑒于亞馬遜積極向美國各地的執(zhí)法機構(gòu)推銷自己的Rekognition,這顯示其還遠遠不夠好。”算法正義聯(lián)盟(Algorithmic Justice League)的創(chuàng)始人喬伊·布拉馬維尼(Joy Buolamwini)在最近的一次采訪中,呼吁暫停這項技術(shù),稱其無效,并需要更多監(jiān)管。此外,在這些系統(tǒng)被公開發(fā)布之前,政府應(yīng)該制定更多相關(guān)標準。
| 數(shù)據(jù)的完整性問題
如今的AI需要大量的數(shù)據(jù)才能產(chǎn)生有意義的結(jié)果,但無法利用其他應(yīng)用程序的經(jīng)驗。雖然班尼特認為克服這些局限性的工作正取得進展,但是在模型以可擴展的方式應(yīng)用之前,學習的轉(zhuǎn)移是有必要的。然而,在某些情況下,AI可以在今天得到有效的應(yīng)用,比如在圖像、聲音、視頻和翻譯語言方面的洞察力。
企業(yè)正在學習應(yīng)該關(guān)注的問題:
1)數(shù)據(jù)的多樣性,包括適當人群的代表性。
2)在創(chuàng)建算法的過程中確保不同的經(jīng)驗、觀點和思維。
3)數(shù)據(jù)質(zhì)量優(yōu)先于數(shù)量。這些都是非常重要的,特別是隨著偏見的引入,對AI的信任和信心數(shù)據(jù)都在下降。例如,在土耳其語中屬于中性的語言,谷歌翻譯中的AI模型在將其翻譯成英語時卻錯誤地預(yù)測了性別。
此外,癌癥識別AI在圖像識別訓練時只使用皮膚白皙的人照片。從上面的計算機視覺例子中,喬伊·布拉馬維尼(Joy Buolamwini)測試了這些AI技術(shù),并意識到它們在識別男性VS女性或淺色VS深色皮膚方面更有效。識別男性的錯誤率低至1%,而識別深色皮膚女性的錯誤率則高達35%。這些問題的發(fā)生是因為沒有使用多樣化的數(shù)據(jù)進行培訓。
班尼特承認:“AI的概念很簡單,但通過獲取越來越多的真實世界數(shù)據(jù),算法會變得越來越聰明,然而要解釋這些決策卻變得極其困難。數(shù)據(jù)可能會不斷變化,AI模型需要進行過濾,以防止錯誤的標簽,比如將非洲人貼上大猩猩的標簽,或者將熊貓誤認為長臂猿。企業(yè)依靠錯誤的數(shù)據(jù)來做出決策,將導致更加糟糕的結(jié)果?!?/p>
幸運的是,由于AI的狹義存在,很少有公司會根據(jù)今天的數(shù)據(jù)做出重大商業(yè)決策。從我們所看到的情況來看,大多數(shù)解決方案主要是產(chǎn)品推薦和個性化營銷溝通。由此得出的任何錯誤結(jié)論都不會對社會造成太大影響,至少目前如此。使用數(shù)據(jù)來進行業(yè)務(wù)決策并不新鮮,但發(fā)生變化的是使用結(jié)構(gòu)化和非結(jié)構(gòu)化數(shù)據(jù)的數(shù)量和組合正呈指數(shù)級增長。AI使我們能夠持續(xù)性地使用來自他們源頭的數(shù)據(jù),并更快地獲得洞察力。對于具有處理來自不同數(shù)據(jù)源的數(shù)據(jù)和結(jié)構(gòu)能力的企業(yè)來說,這意味著巨大的機會。
然而,對于其他企業(yè)來說,大量的數(shù)據(jù)可能代表著一種風險,因為不同的來源和格式使得轉(zhuǎn)換信息變得更加困難。這些信息來自電子郵件、系統(tǒng)日志、網(wǎng)頁、客戶記錄、文檔、幻燈片、非正式聊天、社交網(wǎng)絡(luò)以及圖像和視頻更豐富的媒體。數(shù)據(jù)轉(zhuǎn)換仍然是開發(fā)干凈數(shù)據(jù)集和有效模型的絆腳石。
| 偏見比我們意識到的更普遍
許多商業(yè)模型都存在偏見,以最小化風險評估和優(yōu)化目標機會,雖然它們可能產(chǎn)生有利可圖的商業(yè)結(jié)果。但眾所周知,它們會導致意想不到的后果,導致個人傷害,加大經(jīng)濟差距。保險公司可能會利用位置信息或信用評分數(shù)據(jù)向較貧窮的客戶發(fā)放更高的保費。銀行可能會批準信用評分較低的貸款申請,盡管這些人已經(jīng)負債累累,可能無法負擔更高的貸款利率。
由于AI的引入不僅會使現(xiàn)有的偏見永久存在,而且這些學習模型的結(jié)果可能會推廣到加深經(jīng)濟和社會鴻溝的程度,因此圍繞著偏見的謹慎程度也越來越高。在當前情況下,偏見出現(xiàn)在類似“替代性制裁的懲罰性罪犯管理分析”(Correctional Offender Management Profiling for Alternative Sanctions,簡稱COMPAS)的算法中。
COMPAS是由名為Northpointe的公司創(chuàng)建的,目的旨在評估審前聽證中被告犯罪行為的風險,并作出預(yù)測。COMPAS初步研究中使用的問題類型足以顯示,無意中對待黑人的偏見會在系統(tǒng)中延續(xù)。在沒有公共標準可用的情況下,Northpointe得以自己創(chuàng)建公平的定義,并在沒有第三方評估的情況下開發(fā)了一種算法。這篇文章證明:一個流行的算法在預(yù)測犯罪方面并不比隨機的人更好。
如果這款軟件和未受過訓練的人對在線調(diào)查的反應(yīng)一樣準確,我認為法院在做決定時應(yīng)該考慮到這一點。班尼特稱:“當我們試圖修復現(xiàn)有系統(tǒng)以最小化這種偏見時,關(guān)鍵是要對不同的數(shù)據(jù)集進行模型訓練,以防止將來產(chǎn)生危害?!庇捎阱e誤模型的潛在風險遍布企業(yè)和社會,企業(yè)沒有治理機制來監(jiān)督不公平或不道德的決策,而這些決策將無意中影響最終消費者。
| 對隱私日益增長的需求
我和班尼特都曾在雅虎工作過,我們與強大的研究和數(shù)據(jù)團隊合作,能夠在我們的平臺上對用戶的行為進行仔細研究。我們不斷地研究用戶行為,了解他們在音樂、主頁、生活方式、新聞等眾多屬性方面的傾向。當時,對數(shù)據(jù)使用沒有嚴格的標準或規(guī)定。隱私被降級為平臺上用戶被動遵守的協(xié)議中的條款和條件,與今天的情況類似。
最近的劍橋分析公司濫用Facebook用戶數(shù)據(jù)丑聞把個人數(shù)據(jù)隱私問題推到了風口浪尖。主要信貸機構(gòu)(如Equifax)、最近的Facebook和Google +頻繁發(fā)生的數(shù)據(jù)泄露,繼續(xù)加劇了這一問題。2018年5月25日生效的歐洲《通用數(shù)據(jù)保護條例》(GDPR)將改變企業(yè)的游戲規(guī)則,特別是那些收集、存儲和分析個人用戶信息的公司。它將改變企業(yè)經(jīng)營多年的商業(yè)規(guī)則。毫無節(jié)制地使用個人信息已經(jīng)到了緊要關(guān)頭,因為企業(yè)現(xiàn)在會意識到,數(shù)據(jù)的使用將受到重大限制。更重要的是,所有權(quán)之爭更為激烈。
我們看到了定位廣告的早期效果。這個價值750億美元的行業(yè),預(yù)計到2021年將以21%的年復合增長率增長,但仍受到Facebook和谷歌的寡頭壟斷的阻礙,它們獲得了大部分收入?,F(xiàn)在,GDPR加大了風險,讓這些廣告技術(shù)公司擔負起更多責任。這種風險非常高,以至于(廣告商)必須非常確定,你被告知的內(nèi)容實際上是符合要求的。對于什么最終會構(gòu)成違規(guī),似乎存在著足夠多的普遍困惑,人們對此采取了廣泛的方法,直到你能夠準確地了解合規(guī)。
盡管監(jiān)管最終會削弱營收,但至少就目前而言,移動和廣告平臺行業(yè)也正面臨著越來越多的審查,這些行業(yè)多年來一直在從消費者身上賺錢。這一點,再加上圍繞既定實踐的審查,將迫使行業(yè)改變收集、聚合、分析和共享用戶信息的方式。對隱私進行操作需要時間、重大投資以及心態(tài)上的改變,這些將影響企業(yè)政策、流程和文化。
| AI與倫理道德不可避免的結(jié)合
AI的普遍因素確保了社會效益,包括簡化流程、增加便利性、改進產(chǎn)品和服務(wù),以及通過自動化檢測潛在的危害。在最后一點上妥協(xié)可能意味著,更容易依據(jù)更新的制造過程、服務(wù)和評估解決方案、生產(chǎn)和產(chǎn)品質(zhì)量結(jié)果來衡量投入/產(chǎn)出。隨著關(guān)于AI的討論和新聞的持續(xù),“AI”這個術(shù)語和“倫理”的結(jié)合,揭示了越來越嚴重的擔憂,即AI技術(shù)在哪些方面會造成社會損害,從而考驗人類的良知和價值觀。
圖:有關(guān)AI及其道德標準的討論正在增多
除了個人隱私問題,今天我們看到了一些近乎不合情理的創(chuàng)新例子。如前所述,Rekognition被用于執(zhí)法和公民監(jiān)視,而該技術(shù)被認為是錯誤的。谷歌決定向美國國防部提供AI技術(shù)支持,用于分析無人機拍攝的視頻,目標是幫助創(chuàng)建一個復雜的系統(tǒng),在名為project Maven的項目中對城市進行監(jiān)測,許多員工為此發(fā)起抗議,甚至不惜辭職。
決策者和監(jiān)管機構(gòu)將需要引入新的流程和政策,以恰當?shù)卦u估AI技術(shù)的使用方式、用途和過程中是否會出現(xiàn)意外后果。班尼特指出了AI算法中數(shù)據(jù)使用的新問題需要考慮,包括如何檢測敏感數(shù)據(jù)字段并匿名化它們,同時保留數(shù)據(jù)集的重要特性?我們能在短期內(nèi)訓練合成數(shù)據(jù)作為替代品嗎?在創(chuàng)建算法時,我們需要問自己一個問題:我們需要哪些字段來提供我們想要的結(jié)果?此外,我們應(yīng)該創(chuàng)建哪些參數(shù)來定義模型中的“公平”,這意味著是否會區(qū)別對待兩個個體?如果是這樣,原因是什么?我們?nèi)绾卧谖覀兊南到y(tǒng)中持續(xù)監(jiān)控這一點?
| AI寒冬?也許是AI走向更美好未來的良機
AI已經(jīng)走了很長的路,但還需要更多的時間來成熟。在一個自動化程度和認知計算能力不斷提高的世界里,即將到來的AI寒冬也為企業(yè)提供了必要的時間,讓它們來決定如何將AI融入企業(yè)中,以及如何利用AI解決面臨的問題。AI面臨問題需要在政策、治理以及對個人和社會的影響方面加以解決。