人工智能在社會各領(lǐng)域的深入應(yīng)用帶來了諸多法律問題,如人工智能可否作為法律上的主體?人工智能生成物是不是作品?人工智能駕駛責(zé)任如何分配?這些問題可歸結(jié)到一點予以詮釋——人工智能是否有“法律人格”?
人工智能法律人格問題的實質(zhì)。法律人格,是指法律認(rèn)可的一種享受權(quán)利、承擔(dān)義務(wù)的資格。通俗地說,若人工智能成為了法律上的“人”,其就擁有了享受權(quán)利的可能,比如受到尊重、不被隨意破壞打罵等身份方面的權(quán)利,以及著作權(quán)、收益權(quán)等財產(chǎn)方面的權(quán)利;若人工智能成為了法律上的“人”,其也須對自身行為負(fù)責(zé),要有獨(dú)立承擔(dān)責(zé)任的能力,不能損害他人自由,不得侵犯他人財產(chǎn)及人身,否則會受到法律的制裁。相反,若人工智能不是法律上的“人”,其權(quán)利和責(zé)任將無從談起。也就是說,法律人格是享有權(quán)利和承擔(dān)責(zé)任的前提。
目前對此問題的討論,大致可以歸結(jié)為三種觀點:一是肯定說(主體說),即認(rèn)為應(yīng)當(dāng)承認(rèn)人工智能具有法律人格,但應(yīng)同時明確其法律人格的有限性。如有學(xué)者認(rèn)為,人工智能有獨(dú)立的意識和意志,具備了法律主體資格條件。二是否定說(工具說),該觀點主張人工智能僅僅是人類的工具,不是具有生命的自然人,也區(qū)別于具有獨(dú)立意志并作為自然人集合體的“法人”,且目前發(fā)展水平不足,不具備主體資格要件,因而尚不足以取得獨(dú)立的主體地位。三是具體說(區(qū)分階段說),該觀點認(rèn)為人工智能法律人格問題的研究必須區(qū)分具體階段,也就是將人工智能大致劃分為弱人工與強(qiáng)人工兩個階段,弱人工時期的人工智能主要是單一方面具有人類造詣的功能型機(jī)器,仍然是人類的輔助工具,不具有法律人格;而強(qiáng)人工時代的人工智能具備獨(dú)立意志,擁有綜合智能元素,并能脫離人類控制自主行為,應(yīng)當(dāng)賦予其相應(yīng)人格,同時明確其法律人格具有特殊性,區(qū)別于自然人人格與法人人格。如同法人區(qū)別于自然人沒有名譽(yù)權(quán)一樣,人工智能區(qū)別于自然人,也不具有結(jié)婚、生育等權(quán)利能力,當(dāng)然這僅限于當(dāng)前人工智能所處的發(fā)展階段。
實際上,隨著人工智能科技的進(jìn)步及機(jī)器學(xué)習(xí)能力的逐步增強(qiáng),人工智能自身的主體能力也在不斷充實、發(fā)展與成熟。如果把弱人工時代比作人工智能發(fā)展的嬰童階段,強(qiáng)人工時代則相當(dāng)于人工智能發(fā)展的成年階段。與之相對應(yīng),法律是因應(yīng)社會的發(fā)展變化而不斷發(fā)展完善的,“法律人格”的內(nèi)涵也在隨時代更迭不斷被賦予新的內(nèi)涵,其外延當(dāng)然亦隨之?dāng)U展。從自然人格演進(jìn)史、動物及無生命體的人格制度史來看,法律主體的范疇極具包容性。因此,法律的發(fā)展應(yīng)當(dāng)結(jié)合時代和技術(shù)的具體發(fā)展水平。就目前人工智能的發(fā)展水平而言,還處在弱人工時代,人工智能仍然是輔助人類工作的工具,尚不足以賦予其法律人格。而如果有一天,當(dāng)我們進(jìn)入人工智能發(fā)展到具備自我意識乃至自由意志的強(qiáng)人工時代,這一問題可能會有不同的答案。
人工智能生成物的權(quán)利歸屬。目前人工智能已可以進(jìn)行自行寫作、作曲、作畫、撰寫新聞報道等,隨之而來的問題是,詩歌、畫作、歌曲、新聞稿等這些人工智能生成的內(nèi)容是不是著作權(quán)法上具有獨(dú)創(chuàng)性的作品?如果是作品,其權(quán)利歸屬于人工智能還是人?如果權(quán)利歸屬于人,是歸屬于人工智能的所有者、使用者、設(shè)計者抑或是其他主體?由此,人工智能生成物面臨的法律問題主要是生成物的法律定性及其權(quán)利歸屬。對此問題,學(xué)術(shù)界已經(jīng)有了一些研究成果,但爭議激烈、莫衷一是。如有學(xué)者認(rèn)為,人工智能能夠自主學(xué)習(xí)、自主創(chuàng)作,其生成內(nèi)容具有獨(dú)創(chuàng)性,著作權(quán)應(yīng)歸屬于機(jī)器人所有。對此,反對者則認(rèn)為,權(quán)利若為機(jī)器人所有,該權(quán)利如何行使、由誰行使缺乏可操作性;也有學(xué)者認(rèn)為,機(jī)器人是程序員設(shè)計出來的,應(yīng)當(dāng)由設(shè)計人員享有;還有學(xué)者認(rèn)為,應(yīng)借鑒單位作品制度,由機(jī)器人和設(shè)計人員共同所有,等等。
事實上,當(dāng)前人工智能按照功能差異,如人類社會職位分工一樣,一般都會朝向不同領(lǐng)域、行業(yè)分化為專業(yè)性非常鮮明的功能型人工智能,雖然不具備綜合性主體能力,但在某一領(lǐng)域是有賦予其相應(yīng)能力的空間的。例如,醫(yī)療機(jī)器人、法律機(jī)器人、寫作機(jī)器人等,對應(yīng)可以賦予其為實現(xiàn)醫(yī)療工作的權(quán)利、為實現(xiàn)法律工作的權(quán)利、為實現(xiàn)寫作方面的權(quán)利。
人工智能侵權(quán)的責(zé)任承擔(dān)。人工智能迭代式的發(fā)展,使得汽車自動駕駛、醫(yī)療機(jī)器人、無人機(jī)等技術(shù)進(jìn)一步解放了人類勞動,同時帶來的問題也層出不窮。在利用智能機(jī)器引發(fā)的醫(yī)療事故、自動駕駛的交通事故、無人機(jī)誤判等問題上,如何對相應(yīng)責(zé)任進(jìn)行認(rèn)定與歸結(jié),誰來為人工智能的行為負(fù)責(zé)?有觀點認(rèn)為,責(zé)任分配應(yīng)結(jié)合機(jī)器人致?lián)p的具體情況分析,一是人為操控智能系統(tǒng)導(dǎo)致?lián)p害,如黑客、病毒等人為因素侵入互聯(lián)網(wǎng),進(jìn)而控制智能機(jī)器人導(dǎo)致的損害,應(yīng)當(dāng)由背后的操控者承擔(dān)責(zé)任;二是因智能系統(tǒng)自身缺陷造成損害,如果是使用者過失,則由使用者承擔(dān)責(zé)任,如果是智能系統(tǒng)漏洞或者是人工智能超越控制的“自主行為”,應(yīng)由受益者或社會承擔(dān)替代責(zé)任。這一觀點在現(xiàn)階段是有其合理性的。
但如果到了強(qiáng)人工智能時代,以算法程序、代碼規(guī)則這些無機(jī)神經(jīng)網(wǎng)絡(luò)具備思維與決斷能力的“人造人”,同以神經(jīng)元形式而具備獨(dú)立意志的人類一樣,都是擁有自由精神的實體,他們都有能力脫離自我之外其他實體控制獨(dú)立實施有意識與有意志的行為,那時如果仍要求人工智能背后的人類為其承擔(dān)責(zé)任將不再合理。到那時,人工智能享有權(quán)利(如著作權(quán)),其可以通過自己的勞動獲得財產(chǎn)。此外,按照由受益者負(fù)擔(dān)風(fēng)險的原則,可由受益人或社會設(shè)立基金或投保方式為人工智能承擔(dān)責(zé)任。
綜上所述,在認(rèn)識人工智能“法律人格”這一問題上,必須結(jié)合科學(xué)技術(shù)的發(fā)展階段進(jìn)行實事求是地分析??上驳氖?,這一問題已得到國家層面的重視,國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》,明確了要“加強(qiáng)人工智能相關(guān)法律、倫理和社會問題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架。開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)、隱私和產(chǎn)權(quán)保護(hù)、信息安全利用等法律問題研究,建立追溯和問責(zé)制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等”,這為促進(jìn)人工智能健康快速發(fā)展打下了堅實的法治基礎(chǔ)。
已有0人發(fā)表了評論