人工智能和包括機(jī)器人在內(nèi)的智能化自動(dòng)系統(tǒng)的普遍應(yīng)用,不僅僅是一場(chǎng)結(jié)果未知的開放性的科技創(chuàng)新,更將是人類文明史上影響甚為深遠(yuǎn)的社會(huì)倫理試驗(yàn)。誠(chéng)如霍金所言,人工智能的短期影響由控制它的人決定,而長(zhǎng)期影響則取決于人工智能是否完全為人所控制。
人工智能體的擬主體性與人工倫理智能體
人工智能的倫理問題之所以受到前所未有的關(guān)注,關(guān)鍵原因在于其能實(shí)現(xiàn)某種可計(jì)算的感知、認(rèn)知和行為,從而在功能上模擬人的智能和行動(dòng)。在人工智能創(chuàng)立之初,英國(guó)科學(xué)家圖靈、美國(guó)科學(xué)家明斯基等先驅(qū)的初衷是運(yùn)用計(jì)算機(jī)制造能實(shí)現(xiàn)人類所有認(rèn)知功能的通用人工智能或強(qiáng)人工智能。但科學(xué)家們不久就發(fā)現(xiàn),要使機(jī)器像人一樣理解語(yǔ)言和抽象概念,通過學(xué)習(xí)全面達(dá)到人類智能的水平,并非一日之功。迄今為止,應(yīng)用日益廣泛的各種人工智能和機(jī)器人尚屬狹義人工智能或弱人工智能,只能簡(jiǎn)單地執(zhí)行人交給它們的任務(wù)。
一般地,人工智能及智能自動(dòng)系統(tǒng)能根據(jù)人的設(shè)計(jì)自動(dòng)地感知或認(rèn)知環(huán)境(包括人)并執(zhí)行某些行動(dòng),還可能具備一定的人機(jī)交互功能甚至可以與人“對(duì)話”,常常被看作具有一定自主性和交互性的實(shí)體。有鑒于此,人工智能學(xué)家引入了智能體(agents,又稱智能主體)的概念來(lái)定義人工智能:對(duì)能夠從環(huán)境中獲取感知并執(zhí)行行動(dòng)的智能體的描述和構(gòu)建。于是,可將各種人工智能系統(tǒng)稱為人工智能體或智能體。從技術(shù)上講,智能體的功能是智能算法賦予的:智能體運(yùn)用智能算法對(duì)環(huán)境中的數(shù)據(jù)進(jìn)行自動(dòng)感知和認(rèn)知,并使其映射到自動(dòng)行為與決策之中,以達(dá)成人為其設(shè)定的目標(biāo)和任務(wù)??梢哉f,智能體與智能算法實(shí)為一體兩面,智能算法是智能體的功能內(nèi)核,智能體是智能算法的具體體現(xiàn)。
從智能體概念出發(fā),使人工智能系統(tǒng)更為明晰地呈現(xiàn)為可以模擬和替代人類的理性行為,因可與人類相比擬乃至比肩的存在,故可視之為“擬主體”,或者說智能體具有某種“擬主體性”。如果僅將智能體看作一般的技術(shù)人造物,其研究進(jìn)路與其他科技倫理類似,主要包括面向應(yīng)用場(chǎng)景的描述性研究、凸顯主體責(zé)任的責(zé)任倫理研究以及基于主體權(quán)利的權(quán)利倫理研究。但在人們賦予智能體以擬主體性的同時(shí),會(huì)自然地聯(lián)想到,不論智能體是否像主體那樣具有道德意識(shí),它們的行為可以看作是與主體倫理行為類似的擬倫理行為。進(jìn)而可追問:能不能運(yùn)用智能算法對(duì)人工智能體的擬倫理行為進(jìn)行倫理設(shè)計(jì),即用代碼編寫的算法使人所倡導(dǎo)的價(jià)值取向與倫理規(guī)范得以嵌入到各種智能體之中,令其成為遵守道德規(guī)范乃至具有自主倫理抉擇能力的人工倫理智能體?
機(jī)器人三定律與嵌入式的機(jī)器倫理調(diào)節(jié)器
其實(shí),這一思路并不新鮮,早在70多年前,美國(guó)人阿西莫夫在對(duì)機(jī)器人三定律的科學(xué)幻想中,就提出了通過內(nèi)置的“機(jī)器倫理調(diào)節(jié)器”使機(jī)器人成為服從道德律令的類似構(gòu)想。在短篇科幻小說《轉(zhuǎn)圈圈》(1942)中,阿西莫夫提出了按優(yōu)先順序排列的機(jī)器人三定律:第一定律,機(jī)器人不得傷害人類或坐視人類受到傷害;第二定律,在與第一定律不相沖突的情況下,機(jī)器人必須服從人類的命令;第三定律,在不違背第一與第二定律的前提下,機(jī)器人有自我保護(hù)的義務(wù)。此后,為了克服第一定律的局限性,他還提出了優(yōu)先級(jí)更高的機(jī)器人第零定律:機(jī)器人不得危害人類整體或坐視人類整體受到危害。
從內(nèi)涵上講,機(jī)器人定律是一種康德式的道德律令,更確切地講是人為機(jī)器人確立的普遍道德法則,以確保其成為遵守絕對(duì)道德律令的群體。而更耐人尋味的是,機(jī)器人三定律是通過技術(shù)實(shí)現(xiàn)的。在《轉(zhuǎn)圈圈》中,三定律是根深蒂固地嵌入到機(jī)器人的“正電子”大腦中的運(yùn)行指令:每個(gè)定律一旦在特定場(chǎng)景中得到觸發(fā),都會(huì)在機(jī)器人大腦中自動(dòng)產(chǎn)生相應(yīng)的電位,最為優(yōu)先的第一定律產(chǎn)生的電位最高;若不同法則之間發(fā)生沖突,則由它們的大腦中自動(dòng)產(chǎn)生的不同電位相互消長(zhǎng)以達(dá)成均衡。這表明,機(jī)器人定律并不全然是道德律令,也符合其技術(shù)實(shí)現(xiàn)背后的自然律。換言之,機(jī)器人定律所采取的方法論是自然主義的,它們是人以技術(shù)為尺度給機(jī)器人確立的行為法則,既體現(xiàn)道德法則又合乎自然規(guī)律。
歷史地看,這些富有電氣化時(shí)代色彩的機(jī)器人倫理設(shè)計(jì)實(shí)際上是一種科技文化創(chuàng)新。自英國(guó)作家雪萊夫人創(chuàng)作《弗蘭肯斯坦》(1818)到捷克的恰佩克發(fā)表《羅素姆萬(wàn)能機(jī)器人》(1921),不論是前者呈現(xiàn)的科學(xué)怪人的形象,還是后者昭示的機(jī)器人造反,都體現(xiàn)了人對(duì)其創(chuàng)造物可能招致毀滅性風(fēng)險(xiǎn)與失控的疑懼。機(jī)器人定律則為擺脫這種情結(jié)提供了可操作性的方案——通過工程上的倫理設(shè)計(jì)調(diào)節(jié)機(jī)器人的行為,使其成為可教化的道德的機(jī)器人——合倫理的創(chuàng)造物。但從自然主義的方法論來(lái)看,這一構(gòu)想又似乎明顯超前。在提出第零定律時(shí),阿西莫夫也意識(shí)到,機(jī)器人可能無(wú)法理解人類整體及人性等抽象概念?;蛟S是這些困難令他轉(zhuǎn)而暢想,一旦機(jī)器人靈活自主到可以選擇其行為,機(jī)器人定律將是人類理性地對(duì)待機(jī)器人或其他智能體的唯一方式。這似乎是在暗示,使人工智能體成為可以自主作出倫理抉擇的人工倫理智能體的前提是其可與人的智能媲美。
已有0人發(fā)表了評(píng)論