2018年5月19日,在“兩界聯(lián)席會議”上,來自自然科學界和社會科學界的專家學者,試圖在培育壯大人工智能產業(yè),抓住人工智能發(fā)展機遇的同時,推動對人工智能倫理風險和社會挑戰(zhàn)的前瞻性應對研究。那么,什么是人工智能?它就是機器學習或者更具體的深度學習嗎?[課件][文稿][完整報告]
人工智能應用于社會、經濟、工業(yè)、生活的范圍越來越廣,未來人的社會分工將面臨巨大的變化。機器學習用于自然語言理解、圖像識別、數(shù)據(jù)處理等方面已經超過人類的水平,人工智能的發(fā)展遠不是單純的技術問題,它帶來很多需要深入分析、求解的人文挑戰(zhàn)。[課件][文稿][完整報告]
太陽微系統(tǒng)公司聯(lián)合創(chuàng)始人、計算機科學家比爾?喬伊曾說,在21世紀,人類擁有的最強大的三種技術——機器人技術、基因工程技術、納米技術,正在使我們自己成為瀕危動物。此言一出便引起轟動。那么,人工智能會給人類帶來哪些遠慮與近憂?[課件][文稿][完整報告]
2018年5月25日,歐盟增設的獨立監(jiān)管機構——歐洲數(shù)據(jù)保護理事會在布魯塞爾成立,負責執(zhí)行歐盟推出的《通用數(shù)據(jù)保護條例》。根據(jù)新法規(guī),如果數(shù)據(jù)監(jiān)管機構調查不力,用戶有權向法院提起訴訟來保護自己的權利。新法規(guī)不僅是限制企業(yè)、保護消費者,同時也是保護企業(yè)合法權益,為企業(yè)公平競爭營造良好的市場環(huán)境,提高企業(yè)整體素質和綜合競爭力。[課件][文稿][完整報告]
王彥晶 北京大學副教授
感謝“兩界”高峰論壇的邀請,讓我有機會跟大家交流最近我的一些想法。我們先來看一段話,這是從英文翻譯過來的,大意是:“我不想嚇唬各位,但是簡單地總結一下:這世界上已經有了能思考、學習和創(chuàng)造的機器。而且它們做這些事的能力正在飛速地增長,在可見的未來,它們解決問題的能力會與人類旗鼓相當。”
這是誰說的呢?他是一位諾貝爾獎獲得者,也是一位圖靈獎獲得者,他的名字叫赫伯特·西蒙。他是人工智能技術之父,是一個很著名的跨領域的天才。這段話是他在1957年說的,那時候人工智能剛剛發(fā)端,人工智能給我們帶來了很多樂觀的情緒。然而60多年過去了,赫伯特·西蒙當時很多的預計和設想并沒有成為現(xiàn)實。
近年來,深度學習的進展又讓我們看到了在不遠的未來又能實現(xiàn)這些事情了,這樣樂觀的情緒在人工智能領域發(fā)展史中出現(xiàn)過很多次。我們樂觀,我們被現(xiàn)實打??;我們繼續(xù)樂觀,我們又被現(xiàn)實打敗。但是,這一次熱潮不僅局限在計算機界,工業(yè)界、政府、學術界、教育界都在非常熱烈地討論人工智能的未來。歷史會重演嗎?這個我不敢說,也許是既會又不會。我們都希望這次人工智能技術進步是一次不同于往常的進步。
一、對于人工智能的認知
現(xiàn)在,工業(yè)界人工智能的領軍人物是吳恩達,他把人工智能稱作“新電力”。所謂新電力,是說它能像電力一樣驅動很多已有行業(yè)或產業(yè)發(fā)生巨大變革和升級。大眾對什么是“電”、它能做什么、有什么危險了解很多,但對于人工智能技術及其風險可能了解得很少。我們看到的人工智能產品是掃地機器人、自動駕駛車、對話助手等。人工智能本身究竟指的是什么?不同受眾,不僅是大眾,而且各個行業(yè)包括工業(yè)界、投資界、政府、哲學家、自然科學家和社會科學家,可能對人工智能技術及其發(fā)展的階段都會有非常不一樣的認知。事實上,如果我們能夠推動大眾對于人工智能技術及其風險的認知,很多事情做起來可能會更容易一些。
什么是人工智能?大眾對于人工智能可能聽到最多的是機器學習或者更具體的深度學習。事實上,我們去看權威的人工智能教科書,比如2011年出版的《人工智能:一種現(xiàn)代方法(第3版)》,一共有1095頁,其中介紹深度神經網絡核心算法只有10頁。人工智能是一個非常大的領域,包含了各種各樣的技術和問題的不同的搜索求解、知識表示與推理、自動規(guī)劃、機器學習、感知覺與運動、自然語言處理等,但大眾看到最多的可能是在人工智能領域機器學習中基于神經網的所謂深度學習的一小塊的工作。
二、人工智能發(fā)展的現(xiàn)狀
由于大量數(shù)據(jù)的獲取、硬件上的升級、算法也有很多的想法,機器學習的效果確實有了極大的進步。同時,大量的資金和大量的聰明人涌入,當然會做出更多更好的東西來。事實上,很多學術界的成果,到目前為止還沒有完全轉化到工業(yè)界。工業(yè)界的應用主要還是以傳統(tǒng)的、基于神經網所謂的監(jiān)督學習為主。當然,搜索算法、貝葉斯網、知識圖譜、邏輯推理等也在發(fā)揮作用,但是還沒有出現(xiàn)通用人工智能的真正理論突破,因為欠缺可解釋性、可遷移性與小樣本的學習能力,未來可能屬于符號主義與聯(lián)結主義的融合互補。
三、人工智能發(fā)展的遠慮與近憂
在人工智能發(fā)展中,遠慮是指技術如果達到強人工智能或者類似于那種程度,會有很多威脅人類生存的問題。中期的憂慮是指由于自主決策的人工智能系統(tǒng)分擔責任,人類可能面臨失業(yè)問題。事實上,根據(jù)吳院士的說法,更多的是產業(yè)重組和舊工作的淘汰、新工作的出現(xiàn)。對于大眾來說,更關心的是人工智能帶來的近憂,也就是與切身利益相關的安全問題,用英文表達是safety和security。safety指是否能夠安全地實現(xiàn)系統(tǒng)的目的,security更多地是指在外來惡意入侵或者破壞的情況下如何保證系統(tǒng)的安全性。我們要引導和提高全社會的安全意識,這是人文學者、技術專家、立法者共同面對的急切問題。
主要的機器學習的算法需要大量的人工數(shù)據(jù),這些數(shù)據(jù)的采集和使用、保護是和我們每個人的生活息息相關的。最近大家都聽說過劍橋分析公司在facebook上非法收集數(shù)據(jù)做了一些不好的事情,這是一件非常糟糕的事情。
在中國呢?有人說“中國人不介意用隱私交換方便”。當然,你得看這句話的前因后果?,F(xiàn)實中,你生個孩子就立刻收到母嬰產品的廣告,你轉了一筆帳就有人打電話問你要不要投資,你在網上發(fā)了一封電子郵件就收到很多在線廣告,這些都是隱私的泄露。事實上,中國人在多數(shù)情況下還是很介意隱私的。最近我發(fā)現(xiàn)一個現(xiàn)象,我收到很多學生的來信都是沒有署名的。當然,你可能覺得這是個禮貌問題,事實上很多學生跟我說,有時候就想問一個問題,但不想讓老師知道是我問的。在互聯(lián)網上,名字也是一種隱私,因為知道名字就可以搜索到關于這個人的各種各樣的信息。
現(xiàn)在,中國人越來越有意識地去保護信息,比如在身份證復印件上加備注。前段時間發(fā)生了一件比較糟糕的事情,支付寶在幫助大家曬年度賬單的時候,在很小的地方有一個默認勾選《芝麻服務協(xié)議》,當你在朋友圈高興地分享年度賬單的時候,同時也接受了《芝麻服務協(xié)議》把你的數(shù)據(jù)分享給相應的機構。
現(xiàn)實中,很多時候我們是沒有選擇的。大家在下載各種各樣的APP時,它總會問你是不是接受那些條款。我想問大家,哪些朋友真的去閱讀了那些條款?大家是不是也都選了同意?為什么?一個是服務協(xié)議太長看不懂,另外就是你有別的選擇嗎?不提供身份證號、不提供個人信息,這個APP你就沒法使用。
對于人工智能的很多事情,為什么看上去是我們在用隱私交換方便?是因為我們不知道隱私交出去之后會有什么樣的糟糕后果。
已有0人發(fā)表了評論