四、我國加強人工智能倫理治理體系和治理能力建設的實踐
人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動力量。近年來,隨著人工智能技術的快速發(fā)展,與醫(yī)療、教育、文娛、制造和交通等場景加速融合,對社會生產(chǎn)力和生產(chǎn)關系都產(chǎn)生了廣泛而深刻的影響。但是,人工智能的快速發(fā)展和廣泛應用,也引發(fā)了一系列的倫理問題。圍繞人工智能系統(tǒng)研發(fā)和應用所產(chǎn)生的倫理問題的治理已成為當前全球科技倫理治理的熱點議題。
黨的十八大以來,黨中央把發(fā)展人工智能提升到戰(zhàn)略高度,強調(diào)加快發(fā)展新一代人工智能是事關我國能否抓住新一輪科技革命和產(chǎn)業(yè)變革機遇的戰(zhàn)略問題,人工智能的發(fā)展將為我國構(gòu)建現(xiàn)代化經(jīng)濟體系、實現(xiàn)高質(zhì)量發(fā)展提供重要支撐。黨中央、國務院也高度重視人工智能倫理治理問題。2017年7月,國務院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,要求必須高度重視人工智能可能帶來的安全風險挑戰(zhàn),加強前瞻預防與約束引導,最大限度降低風險。2018年10月,習近平總書記在主持十九屆中央政治局第九次集體學習時強調(diào),要“加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德”。
什么是人工智能倫理?雖然在不同文化背景下,人們對不同倫理原則的排序以及對特定倫理原則的具體理解仍然存在差異,但從各國和國際組織發(fā)布的人工智能倫理原則來看,全球人工智能倫理原則呈現(xiàn)明顯的趨同趨勢。關于人工智能倫理的研究也出現(xiàn)了類似的變化,研究者關注的問題正逐漸從必要性討論、倫理準則討論向?qū)嵤C制討論延伸,致力于縮小“是什么”和“怎么做”之間的鴻溝。
在這個過程中,人們對于人工智能倫理問題的界定有了更為豐富的層次,至少包括以下三個層面:一是人工智能系統(tǒng)開發(fā)過程中的倫理問題。人工智能系統(tǒng)由算法、數(shù)據(jù)和算力三個核心要素構(gòu)成,在討論人工智能倫理時,首先要考慮的三個問題是,算法本身是否符合倫理規(guī)范,數(shù)據(jù)采集、存儲、傳輸和利用是否符合倫理規(guī)范,以及算力建設和使用過程是否符合倫理規(guī)范。具體而言,在討論算法的倫理合規(guī)性時,人們普遍關注算法是否存在歧視和偏見,是否會造成技術紅利和風險的不公正分配等;在討論數(shù)據(jù)的倫理合規(guī)性時,人們普遍關注數(shù)據(jù)采集、存儲、傳輸和利用是否符合個人信息保護等倫理規(guī)范等;在討論算力的倫理合規(guī)性時,人們普遍關注算力建設和使用過程中的環(huán)境倫理問題(比如能源消耗)等。二是人工智能產(chǎn)品和服務使用場景中的倫理問題。近年來,人們越來越關注醫(yī)療、教育、自動駕駛、新聞和社交媒體、市場營銷等重點領域人工智能技術應用的倫理問題,比如人工智能技術引發(fā)了醫(yī)療安全、醫(yī)療責權(quán)歸屬、患者自主權(quán)以及診療過程中的歧視等一系列倫理爭議。三是人工智能治理中的倫理問題,主要包括:一方面,如何讓人工智能治理實踐符合倫理規(guī)范,比如以各種方式開展的人工智能社會實驗、人工智能沙盒監(jiān)管試點等都會涉及倫理問題;另一方面,人工智能治理如何與促進人工智能技術發(fā)展和應用目標保持適當張力。
總之,在當前的人工智能倫理研究和政策實踐中,需要人工智能技術研發(fā)、應用和監(jiān)管主體應充分關注倫理議題的豐富性和復雜性,既要對人工智能領域的科技創(chuàng)新活動和技術應用活動進行倫理規(guī)范,也需要對人工智能治理活動本身持續(xù)進行倫理反思,充分考慮價值理性和工具理性、目的和工具之間的關系及倫理意涵。
什么是人工智能倫理治理?從治理角度看,人工智能倫理治理概念與其他新興技術的倫理治理概念沒有實質(zhì)性差別,要素上都包括治理主體、治理規(guī)則、治理對象、治理工具等要素,主要任務上都要處理好風險和收益的平衡、治理機制和治理工具箱的開發(fā)與迭代等基本問題。但需要注意的是,每項新興技術的倫理治理既有共性,也至少存在三個方面的異質(zhì)性:一是技術的異質(zhì)性,在技術特點和應用場景方面,人工智能技術與基因編輯技術和納米技術等新興技術存在很大差異;二是影響生成和傳導機制的異質(zhì)性,比如人工智能技術倫理風險生成機制與基因編輯技術的倫理風險生成機制存在很大差別;三是治理活動的發(fā)生情境的異質(zhì)性,新興技術的倫理治理活動都是發(fā)生在特定的社會文化和制度情境當中,而這會直接影響人們對技術發(fā)展和應用的風險與收益的判斷、特定治理工具的有效性等。因此,當人們討論人工智能倫理治理時,需要同時關注人工智能技術的特點、應用場景、影響的類型及生成機制,以及治理活動展開和治理工具使用的社會情境。
在厘清上述兩個概念后,我們再來看近年來我國在推進人工智能倫理治理方面的實踐和進展,大致可從法律法規(guī)體系構(gòu)建、組織機構(gòu)和工作機制建設、治理工具開發(fā)和國際交流合作等四個方面來梳理:一是成立國家科技倫理委員會及人工智能倫理分委員會。2019年7月,中央全面深化改革委員會第九次會議審議通過了《國家科技倫理委員會組建方案》;2019年10月,中共中央辦公廳、國務院辦公廳印發(fā)通知,成立國家科技倫理委員會,隨后建立了國家科技倫理委員會人工智能倫理分委員會。
二是推動人工智能倫理治理相關法律法規(guī)體系建設。近年來,我國一方面構(gòu)建起了以《網(wǎng)絡安全法》《數(shù)據(jù)安全法》和《個人信息保護法》等為主架構(gòu)的法律體系,為人工智能倫理治理提供了重要的法律依據(jù);另一方面以分散式立法的方式,加強了對個人數(shù)據(jù)、電子商務、智能金融、自動駕駛等與人工智能發(fā)展緊密相關領域的修法和立法工作。一些行業(yè)監(jiān)管部門也陸續(xù)出臺了一系列部門規(guī)章,以適應本領域人工智能應用監(jiān)管需要,比如2023年11月,中國人民銀行正式印發(fā)《人工智能算法金融應用信息披露指南》,提出了人工智能算法在金融領域應用過程中的信息披露原則、信息披露形式和信息披露內(nèi)容等要素;2024年5月,國務院辦公廳發(fā)布《國務院2024年度立法工作計劃》顯示,人工智能法草案被列為“預備提請全國人大常委會審議”。
三是持續(xù)探索人工智能倫理治理新工具和新方法。人工智能倫理規(guī)范的明確化和相關技術的發(fā)展,促進了確保人工智能系統(tǒng)的行為與人類價值觀保持一致的各種技術和方法的發(fā)展。在技術層面,快速發(fā)展的人工智能對齊技術、紅隊測試、安全評測等為提高人工智能系統(tǒng)的魯棒性、可解釋性、可控性和合倫理性提供了機會,越來越多的機構(gòu)開始把這類技術嵌入到人工智能研發(fā)和應用全生命周期當中。在治理機制層面,科技部、市場監(jiān)管總局、工業(yè)和信息化部等多部門開展了諸如人工智能社會實驗、沙盒監(jiān)管等新的監(jiān)管機制探索。2019年,科技部發(fā)布《國家新一代人工智能創(chuàng)新發(fā)展試驗區(qū)建設工作指引》,明確將開展人工智能社會實驗作為四項重點任務之一。2022年,市場監(jiān)管總局、工業(yè)和信息化部、交通運輸部、應急部、海關總署五部門聯(lián)合發(fā)布《關于試行汽車安全沙盒監(jiān)管制度的通告》,共同啟動汽車安全沙盒監(jiān)管試點工作。
四是積極參與全球人工智能倫理治理交流合作。近年來,我國廣泛參與全球人工智能倫理治理合作,比如積極參與并簽署聯(lián)合國教科文組織2021年發(fā)布的《人工智能倫理問題建議書》,2023年11月受邀出席首屆全球人工智能安全峰會并簽署《布萊切利宣言》。2023年10月,我國發(fā)布《全球人工智能治理倡議》,提出堅持倫理先行,建立并完善人工智能倫理準則、規(guī)范及問責機制,形成人工智能倫理指南,建立科技倫理審查和監(jiān)管制度。2023年11月,中美兩國元首同意建立人工智能政府間對話,并于2024年5月在瑞士舉行了首次會議。2024年5月,中國和法國簽署《中法關于人工智能和全球治理的聯(lián)合聲明》。2024年7月,聯(lián)合國大會通過了中國主提的《加強人工智能能力建設國際合作決議》,特別強調(diào)人工智能系統(tǒng)應安全、可靠和值得信賴,其生命周期包括前期設計、設計、開發(fā)、評價、測試、部署、使用、銷售、采購、運行和淘汰等階段,這些系統(tǒng)必須以人為本、可靠、可解釋、符合道德、具有包容性,遵循人工智能造福所有人的原則,符合以人為本、具有包容性、面向發(fā)展的信息社會的愿景。
已有0人發(fā)表了評論