人工道德與算法遵循“善法”的道德形態(tài)
第二個(gè)方面的倫理尺度與人類主體模式下的道德建構(gòu)有關(guān)。目前賦予人工智能以道德能力的算法大致上有三種:一是通過語義網(wǎng)絡(luò)擴(kuò)增道義邏輯,形成義務(wù)與許可概念;二是通過知識(shí)圖譜建立關(guān)聯(lián)法則,偵測(cè)道德判斷情境;三是通過云計(jì)算發(fā)掘相關(guān)關(guān)系,評(píng)估或預(yù)測(cè)行動(dòng)后果。道德算法是嵌入在算法體系中有待完善的算法程式。它本身是在不斷變化發(fā)展之中的,而非某種具體現(xiàn)存之物,也非某種一蹴而就或一勞永逸的終極預(yù)設(shè)。它作為一種人工建構(gòu),是一種通向“目的善”的“手段善”,因而依系于人類主體模式。在這個(gè)尺度上,算法只有體現(xiàn)或遵循人類主體模式下的“善法”,才能以有責(zé)任感的方式推進(jìn)道德算法的進(jìn)化及其在機(jī)器中的嵌入。這是人工智能時(shí)代的道德建構(gòu)應(yīng)遵循的基本原則,即算法遵循“善法”。在這一原則中,“善法”一詞盡管抽象含混,其表征的人類主體性尺度在具體內(nèi)容上也可能引發(fā)爭(zhēng)論,但它在形式上則明確指向人類尺度上的兩種道德形態(tài)。
第一種道德形態(tài)由常見的人類主體模式主導(dǎo),涉及人類在拓展人工智能時(shí)可能帶來的所有倫理問題。特別說來,當(dāng)人們把人工智能視為一種工具時(shí),它的道德特殊性和道德重要性始終呼喚人類主體的道德責(zé)任之回歸。這是一種單純的規(guī)范性取向,即人類應(yīng)該透過有責(zé)任感的方式籌劃和迎接人工智能時(shí)代的來臨。一種審慎的倫理表明,人工智能可能存在的最大威脅并非來自機(jī)器,而是來自人或人類的意圖和行動(dòng)??紤]到賦予機(jī)器人以道德能力的算法本質(zhì)上是模仿人類道德的算法,如果人類在道德問題上不能獲得明確性,以算法形式在機(jī)器中展現(xiàn)人類道德又如何可能呢?問題以悖謬方式彰顯了人工智能內(nèi)爆的道德形態(tài)建構(gòu)。它以某種方式回應(yīng)了美國(guó)人詹姆斯·摩爾對(duì)倫理智能主體應(yīng)具備道德明確性的要求,即隨著自主性的提升,具有自主道德能力的人工智能在面臨道德兩難的情境時(shí),或者在面對(duì)不同道德原則沖突時(shí),必須能夠作出明確的合理化決策。這種對(duì)道德明確性的要求,反過來構(gòu)造或描繪了人類尺度上的“善法”之特質(zhì),它倒逼人類主體模式盡一切可能走出可能會(huì)引發(fā)晦暗后果(甚至災(zāi)難)的各種道德模糊地帶。
第二種道德形態(tài)由人類主體與人工智能主體相處的“主體間”模式主導(dǎo),涉及人類主體與智能主體之間依系關(guān)系的道德建構(gòu)。這是一個(gè)新的領(lǐng)域。道德算法只有在“‘人—機(jī)’交互主體間”的反復(fù)博弈中,才能不斷地矯正偏頗或錯(cuò)誤,進(jìn)一步升級(jí)和完善。自主性機(jī)器人可能會(huì)作出我們認(rèn)為在道德上有錯(cuò)誤的決定——例如被授權(quán)不為病患提供止痛藥,再比如帶有偏見的人工智能可能會(huì)自我強(qiáng)化從而損害社會(huì)。但是,這不應(yīng)該成為人類拒絕機(jī)器人的原因,而應(yīng)該成為機(jī)器人或人工智能在道德形態(tài)上得到改善和提升的契機(jī)。隨著人類主體與人工智能主體之間的相互依系關(guān)系的建立,具備自我決策能力的自主機(jī)器人一旦在與人類主體的互動(dòng)中學(xué)習(xí)從道德角度發(fā)展決策算法,那么避免傷害就成為人與機(jī)器相互依系的“善法”。
(作者:田海平,系北京師范大學(xué)哲學(xué)學(xué)院教授)
已有0人發(fā)表了評(píng)論