不許試錯(cuò)的失控難題
當(dāng)人工智能技術(shù)不斷重塑人們工作、學(xué)習(xí)和生活方式,并為人類(lèi)帶來(lái)無(wú)限福祉的同時(shí),也正在產(chǎn)生越來(lái)越多的開(kāi)放式問(wèn)題。
1.人工智能失控。能否保持對(duì)有朝一日遠(yuǎn)比人類(lèi)更“聰明”的人工智能系統(tǒng)的控制,是人工智能一個(gè)古老而又終極的問(wèn)題??刂婆c失控問(wèn)題之所以如此重要,是因?yàn)槿祟?lèi)可能根本就沒(méi)有試錯(cuò)的機(jī)會(huì)。盡管人們普遍認(rèn)為現(xiàn)有的人工智能技術(shù)仍停留在弱人工智能階段,但是也有許多專(zhuān)家認(rèn)為超人工智能時(shí)代并不遙遠(yuǎn),超人工智能形態(tài)能夠?qū)崿F(xiàn)遞歸式的自我改善,并導(dǎo)致最終的“智能爆炸”。2008年,在牛津大學(xué)召開(kāi)的全球?yàn)?zāi)難性風(fēng)險(xiǎn)會(huì)議上對(duì)專(zhuān)家進(jìn)行的一項(xiàng)調(diào)查顯示,機(jī)器超級(jí)智已超越核戰(zhàn)爭(zhēng)、各種被操縱的流行病和氣候變化而成為人類(lèi)現(xiàn)存的最大威脅,到2100年的時(shí)候,這種人工智能導(dǎo)致人類(lèi)滅絕的可能性為5%。對(duì)此,《未來(lái)簡(jiǎn)史》一書(shū)的作者、以色列歷史學(xué)家赫拉利指出人類(lèi)可能的三大方向:人類(lèi)將失去他們的經(jīng)濟(jì)和軍事用途,經(jīng)濟(jì)系統(tǒng)將不再有價(jià)值;對(duì)系統(tǒng)來(lái)說(shuō),人類(lèi)整體將具有價(jià)值但個(gè)體將沒(méi)有價(jià)值;然而,系統(tǒng)將在一些個(gè)體身上發(fā)現(xiàn)價(jià)值,但他們將成為一個(gè)超人的新物種,而不是普通大眾,“系統(tǒng)”指的是生物科學(xué)和信息技術(shù)以當(dāng)前極快速度發(fā)展下去產(chǎn)生的新的社會(huì)形態(tài)。
2.機(jī)器歧視。在萬(wàn)物互聯(lián)的環(huán)境下,基于海量數(shù)據(jù)和強(qiáng)大算法的人工智能系統(tǒng)正在影響甚至替代個(gè)體行為決策,在人工智能取代個(gè)體決策的趨勢(shì)下,算法偏差和機(jī)器歧視并不鮮見(jiàn)且影響重大。例如,谷歌的圖片軟件就曾錯(cuò)將黑人標(biāo)記為“大猩猩”,F(xiàn)lickr的自動(dòng)標(biāo)記系統(tǒng)也曾錯(cuò)將黑人的照片標(biāo)記為“猿猴”或者“動(dòng)物”,谷歌的算法歧視問(wèn)題已引起人們注意,在谷歌搜索中相比搜索白人的名字搜索黑人的名字更容易出現(xiàn)暗示具有犯罪歷史的廣告,在谷歌的廣告服務(wù)中,男性比女性看到更多高薪招聘廣告。
3.技術(shù)性失業(yè)。技術(shù)性失業(yè)也是人工智能發(fā)展所產(chǎn)生的重大挑戰(zhàn)。斯坦福大學(xué)人工智能與倫理學(xué)教授卡普蘭認(rèn)為,人類(lèi)要應(yīng)對(duì)人工智能帶來(lái)的最重大挑戰(zhàn)在于勞動(dòng)力的變革和整個(gè)社會(huì)財(cái)富的分配方面,這對(duì)現(xiàn)有社會(huì)的穩(wěn)定造成沖擊。世界經(jīng)濟(jì)論壇主席施瓦布也提出,在由計(jì)算機(jī)控制、全自動(dòng)化、網(wǎng)絡(luò)化的生產(chǎn)以及服務(wù)業(yè)中高科技的廣泛應(yīng)用,比如使用機(jī)器人,在今后可能導(dǎo)致大量就業(yè)崗位流失。
4.人機(jī)情感倫理。人工智能技術(shù)發(fā)展將引發(fā)人類(lèi)傳統(tǒng)倫理觀念的顛覆。2015年秋季,英國(guó)BBC和美國(guó)CNBC等媒體報(bào)道了一家美國(guó)企業(yè)制造出女性形象“性愛(ài)機(jī)器人”的消息,該公司負(fù)責(zé)人認(rèn)為該產(chǎn)品可以幫助喪偶者解決生活煩惱。據(jù)悉,該機(jī)器人預(yù)設(shè)了“交際型”“服從型”等多種性格模式,但該產(chǎn)品卻引起了廣泛的倫理討論。
正如DeepMind創(chuàng)始人哈撒比斯所言:“人工智能是一個(gè)偉大的技術(shù),它本身都是中性的,可能被用于好的地方或者壞的地方,所以我們必須確保它的使用者是負(fù)責(zé)任的。”在此方面,美國(guó)、英國(guó)、日本,以及聯(lián)合國(guó)、歐盟、IEEE等國(guó)際組織已經(jīng)紛紛出臺(tái)人工智能的戰(zhàn)略、法律、標(biāo)準(zhǔn)和規(guī)范,希望通過(guò)人工智能政策和倫理引導(dǎo),推動(dòng)人工智能技術(shù)和產(chǎn)業(yè)的健康發(fā)展。我們應(yīng)從法律法規(guī)、社會(huì)保障、技術(shù)標(biāo)準(zhǔn)和應(yīng)用規(guī)范等多個(gè)維度對(duì)人工智能進(jìn)行科學(xué)規(guī)范,推動(dòng)人工智能技術(shù)和產(chǎn)業(yè)的健康發(fā)展,為人工智能的未來(lái)做好準(zhǔn)備。
(作者:惠志斌,系上海社會(huì)科學(xué)院互聯(lián)網(wǎng)研究中心副主任)
已有0人發(fā)表了評(píng)論