“三期交疊”是我國推進(jìn)科技倫理治理體系和治理能力建設(shè)的大背景,人工智能倫理治理同樣是在這一大背景下展開。首先,當(dāng)前處于人工智能技術(shù)快速發(fā)展期,人工智能技術(shù)發(fā)展的不確定性給人工智能倫理治理帶來了不確定性。人工智能技術(shù)正處于快速發(fā)展過程當(dāng)中,技術(shù)發(fā)展仍具有很大不確定性,這給倫理治理的議題設(shè)定和工具設(shè)計(jì)帶來了很大挑戰(zhàn)。中短期看,人工智能技術(shù)不確定性至少有兩個(gè)來源:一是人工智能模型在魯棒性、可解釋性方面存在的不足——近兩年取得突破的大模型技術(shù)同樣存在這些問題。二是人工智能技術(shù)發(fā)展方向和速度的不確定性。不同技術(shù)方向下,對(duì)數(shù)據(jù)、算力和能源等的需求以及應(yīng)用領(lǐng)域和方式都會(huì)存在很大差異,相應(yīng)倫理問題和治理方式也會(huì)有所不同。比如,大模型技術(shù)路線對(duì)算力和訓(xùn)練數(shù)據(jù)的巨量需求,使得它碰到了環(huán)境、個(gè)人信息保護(hù)方面的倫理問題,而在其他路線下,這些問題可能不一定特別突出。
其次,當(dāng)前處于經(jīng)濟(jì)高質(zhì)量發(fā)展關(guān)鍵轉(zhuǎn)型期,經(jīng)濟(jì)社會(huì)發(fā)展的多目標(biāo)屬性對(duì)人工智能倫理治理提出更高的“平衡”要求。作為一種通用型、賦能型技術(shù),人工智能正在快速滲透到各個(gè)產(chǎn)業(yè)、工作和生活場(chǎng)景,產(chǎn)生了越來越深刻的影響,涉及多重經(jīng)濟(jì)社會(huì)發(fā)展目標(biāo)之間的調(diào)整和平衡以及背后深刻的倫理問題。人工智能倫理治理扮演的是“方向盤”和“剎車”的角色,目標(biāo)是要為人工智能技術(shù)發(fā)展和應(yīng)用提供倫理規(guī)范和安全護(hù)欄,而不是要阻礙人工智能發(fā)展。但在實(shí)踐中,倫理治理確實(shí)存在不利于人工智能研究和應(yīng)用的風(fēng)險(xiǎn)。中央全面深化改革委員會(huì)第二十三次會(huì)議在審議《意見》時(shí)特別強(qiáng)調(diào),“要避免把科技倫理問題泛化,努力實(shí)現(xiàn)科技創(chuàng)新高質(zhì)量發(fā)展與高水平安全的良性互動(dòng)”。國外的實(shí)踐同樣面臨這方面的挑戰(zhàn),比如圍繞歐盟2024年3月通過《人工智能法》的爭(zhēng)論,核心關(guān)注就是會(huì)不會(huì)給人工智能技術(shù)的發(fā)展和合理應(yīng)用造成意想不到的負(fù)面影響??傊瑢?shí)現(xiàn)更充分、更平衡的發(fā)展,要求人工智能倫理治理不能限于一域,要綜合考慮各方面的影響,要善于處理不同目標(biāo)和邏輯之間的平衡。
最后,當(dāng)前處于國際秩序深度調(diào)整期,大國博弈給人工智能倫理治理加入了新變量。雖然加強(qiáng)人工智能倫理治理全球合作是國際社會(huì)共識(shí),但各國為掌握更大話語權(quán)而激烈競(jìng)爭(zhēng),以及全球人工智能治理仍處于“碎片化”狀態(tài)也是客觀事實(shí)。在全球技術(shù)-地緣政治加速重構(gòu),科技、貿(mào)易等領(lǐng)域國際規(guī)則深刻調(diào)整的大背景下,各國對(duì)“主權(quán)人工智能”的追求將使得人工智能倫理治理問題與全球技術(shù)、貿(mào)易、媒體等領(lǐng)域監(jiān)管規(guī)則復(fù)雜地交織在一起。我國人工智能治理的理念、規(guī)則和能力建設(shè)都必須充分考慮國際秩序深度調(diào)整和大國博弈這一關(guān)鍵變量。2023年,中央網(wǎng)信辦發(fā)布《全球人工智能治理倡議》,提出發(fā)展人工智能的11條原則,比如“應(yīng)堅(jiān)持‘以人為本’理念,以增進(jìn)人類共同福祉為目標(biāo),以保障社會(huì)安全、尊重人類權(quán)益為前提,確保人工智能始終朝著有利于人類文明進(jìn)步的方向發(fā)展”,對(duì)于加強(qiáng)全球人工智能倫理治理合作有很強(qiáng)的針對(duì)性。
在人工智能倫理治理活動(dòng)中,上述三重因素處于相互交織、動(dòng)態(tài)演化的狀態(tài),給我國人工智能倫理治理實(shí)踐帶來以下三方面的具體挑戰(zhàn):一是影響識(shí)別難題。影響的識(shí)別和評(píng)估是人工智能倫理治理的前提,但我國在這方面面臨很大挑戰(zhàn),比如經(jīng)濟(jì)和社會(huì)系統(tǒng)高度復(fù)雜,很難準(zhǔn)確評(píng)估人工智能技術(shù)應(yīng)用的影響;影響的廣度和深度取決于人工智能技術(shù)自身的發(fā)展和應(yīng)用狀況,而技術(shù)發(fā)展本身又有很大不確定性;影響具有很大的社會(huì)建構(gòu)性,這給人工智能的影響評(píng)估方法以及各種類型影響的比較和權(quán)衡增加了很大的不確定性,對(duì)于與價(jià)值觀念、風(fēng)險(xiǎn)感知、社會(huì)偏好高度相關(guān)的倫理議題更是如此。
二是人工智能倫理治理“無人區(qū)”難題。當(dāng)前,新一代人工智能對(duì)全世界來說都是一個(gè)新事物,在人工智能倫理治理方面沒有現(xiàn)成經(jīng)驗(yàn),在很多應(yīng)用場(chǎng)景中,我國實(shí)際上已經(jīng)扮演先行先試角色,與之相關(guān)的倫理問題及治理活動(dòng)也進(jìn)入了“無人區(qū)”。在這種情況下,基于中國情境的人工智能倫理問題識(shí)別、評(píng)估和治理的知識(shí)生產(chǎn)變得非常重要。需要指出的是,如同其他新興技術(shù)治理一樣,人工智能倫理問題識(shí)別和治理所需的知識(shí)既包括技術(shù)知識(shí)更包括大量社會(huì)性知識(shí)。但從目前情況來看,我國人工智能倫理治理所需知識(shí)的生產(chǎn)迫切需要解決幾個(gè)突出問題,比如人工智能技術(shù)開發(fā)者和技術(shù)使用者之間的信息不對(duì)稱、人工智能技術(shù)開發(fā)者和使用者與監(jiān)管部門之間的信息不對(duì)稱,以及專家和公眾之間的信息不對(duì)稱。
三是倫理治理體系的有效性難題。近年來,我國在人工智能倫理治理領(lǐng)域已經(jīng)開展了富有成效的探索,人工智能倫理治理領(lǐng)域的“硬法”和“軟法”逐漸增多,形成了各式各樣的治理機(jī)制和工具。但隨之而來的一個(gè)問題,是把各種機(jī)制和工具之間的關(guān)系理順,找到合適的平衡點(diǎn)。當(dāng)一般性問題,在不同的“硬法”和“軟法”中采取了不同的平衡點(diǎn)時(shí),它們的倫理意涵是不一樣的——這也是人工智能治理必須進(jìn)行倫理反思的重要理由。
新時(shí)代,加強(qiáng)我國人工智能倫理治理體系和治理能力建設(shè),一方面要全面認(rèn)識(shí)人工智能倫理問題的內(nèi)涵以及影響倫理治理實(shí)踐的關(guān)鍵因素,確保治理體系和治理能力建設(shè)符合規(guī)律要求、符合實(shí)際情況;另一方面要突出問題導(dǎo)向,抓住治理體系和治理能力建設(shè)中的關(guān)鍵點(diǎn)、改革工作的突破點(diǎn),著力提升工作的針對(duì)性和可操作性。具體而言,可從以下六個(gè)方面發(fā)力:
一是健全人工智能倫理治理法律法規(guī)體系。一方面,以法律法規(guī)的形式明確人工智能倫理問題的邊界、不同主體在人工智能研發(fā)和應(yīng)用過程中的權(quán)責(zé)劃分,并根據(jù)實(shí)際情況,適時(shí)對(duì)其進(jìn)行動(dòng)態(tài)調(diào)整;另一方面,為人工智能倫理治理實(shí)踐提供法律法規(guī)依據(jù)和約束,確保倫理治理實(shí)踐符合法律規(guī)定和倫理規(guī)范。
二是健全人工智能倫理審查機(jī)制。加快健全人工智能倫理審查機(jī)構(gòu)體系和倫理審查規(guī)范體系;通過業(yè)務(wù)培訓(xùn)等多種方式,加強(qiáng)倫理審查專業(yè)人才隊(duì)伍建設(shè);通過規(guī)范審查機(jī)構(gòu)人員構(gòu)成和審查流程等關(guān)鍵環(huán)節(jié),加強(qiáng)倫理審查機(jī)構(gòu)的能力建設(shè),提高倫理審查質(zhì)量;優(yōu)化人工智能倫理風(fēng)險(xiǎn)分級(jí)分類標(biāo)準(zhǔn),并建立與之相匹配的倫理審查和監(jiān)管工作機(jī)制;進(jìn)一步增加倫理審查工作的透明度,更好發(fā)揮倫理審查的導(dǎo)向作用。
三是建立人工智能倫理問題多元監(jiān)督機(jī)制。進(jìn)一步優(yōu)化政府監(jiān)管、行業(yè)自律、公眾監(jiān)督等多種監(jiān)督方式的分工協(xié)作機(jī)制,增強(qiáng)監(jiān)督工作的及時(shí)性和有效性、提高監(jiān)督效率;支持人工智能企業(yè)和研發(fā)機(jī)構(gòu)聯(lián)合制定、共同遵守行業(yè)倫理準(zhǔn)則,發(fā)揮自我約束機(jī)制的作用。
四是加強(qiáng)人工智能倫理教育。支持從事人工智能技術(shù)研發(fā)的機(jī)構(gòu)及其他相關(guān)機(jī)構(gòu)面向人工智能產(chǎn)品和服務(wù)研發(fā)人員開展人工智能倫理培訓(xùn),鼓勵(lì)人工智能產(chǎn)品和服務(wù)提供機(jī)構(gòu)與用戶就特定應(yīng)用場(chǎng)景中的倫理規(guī)范加強(qiáng)溝通;加強(qiáng)人工智能倫理知識(shí)的普及教育,提高公眾對(duì)人工智能倫理問題的關(guān)注度和理解力,增強(qiáng)公眾有序參與人工智能倫理治理的能力。
五是加強(qiáng)人工智能倫理問題及治理效果研究。前瞻性地開展人工智能社會(huì)實(shí)驗(yàn),支持政府和來自學(xué)術(shù)界、產(chǎn)業(yè)界的各類主體在人工智能經(jīng)濟(jì)社會(huì)影響識(shí)別、政策干預(yù)效果評(píng)估等方面共同開展系統(tǒng)性的研究;支持在各個(gè)應(yīng)用場(chǎng)景中開展差異化的倫理治理機(jī)制探索和工具創(chuàng)新,增強(qiáng)倫理治理體系的敏捷性和韌性。
六是積極參與全球人工智能倫理治理。推動(dòng)以聯(lián)合國為中心的全球人工智能倫理治理對(duì)話與合作;圍繞人工智能倫理治理問題,積極開展雙多邊交流合作,共享最佳實(shí)踐、共同支持相關(guān)研究、共同制定治理規(guī)則,與各國攜手推動(dòng)全球人工智能倫理治理體系和治理能力建設(shè)。
(根據(jù)宣講家網(wǎng)報(bào)告整理編輯,
未經(jīng)許可,不得印刷、出版,轉(zhuǎn)載請(qǐng)注明出處,違者追究法律責(zé)任。)
已有0人發(fā)表了評(píng)論