當(dāng)下,世界之變、時(shí)代之變、歷史之變正以前所未有的方式展開,而作為時(shí)代之變的重要內(nèi)容,數(shù)字技術(shù)革命,特別是正在興起的人工智能革命,已經(jīng)成為推動(dòng)世界大變局加速演進(jìn)、重塑世界秩序的重要力量。2022年末,生成式人工智能ChatGPT橫空出世以及人工智能技術(shù)在烏克蘭危機(jī)中的初露鋒芒,讓人工智能治理迅速升溫,成為各國和國際社會(huì)關(guān)注的焦點(diǎn)。正確認(rèn)識人工智能對社會(huì)和國家安全的影響,客觀評估其所帶來的安全風(fēng)險(xiǎn),有助于我們更從容地邁入智能時(shí)代的未來。
一、人工智能給人類社會(huì)帶來了什么
了解歷史、尊重歷史才能更好把握當(dāng)下。論及人工智能技術(shù)發(fā)展歷史的原點(diǎn),我們不可避免地要回溯到1956年夏季在美國新罕布什爾州漢諾威小鎮(zhèn)達(dá)特茅斯學(xué)院召開的一次研討會(huì),史稱“達(dá)特茅斯會(huì)議”。在此次會(huì)議上,近30位在信息論、邏輯和計(jì)算理論、控制論、機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)等領(lǐng)域有卓越成就的學(xué)者齊聚達(dá)特茅斯學(xué)院,圍繞“用機(jī)器來模擬人類學(xué)習(xí)及人類智能的其他特征”,展開了為期兩個(gè)月的研究討論,并且正式提出了“人工智能”(artificial intelligence)的概念。由此,人工智能正式登上了人類的歷史舞臺,科學(xué)家們就如何用機(jī)器實(shí)現(xiàn)“人的智能”開始了數(shù)十年的研究。經(jīng)歷了兩次浪潮和兩次寒冬,克服了符號表達(dá)、神經(jīng)網(wǎng)絡(luò)和控制論的流派路線之爭,人工智能終于在數(shù)字時(shí)代算力提升、算法革新和大數(shù)據(jù)技術(shù)的助推下,在21世紀(jì)20年代迎來了第三次發(fā)展浪潮,也將人類社會(huì)推到了最為接近通用人工智能時(shí)代的歷史節(jié)點(diǎn)。
在思考人工智能究竟會(huì)給社會(huì)和人類帶來什么樣的未來之前,有必要先明晰人工智能向前演進(jìn)的動(dòng)力和方向。從哲學(xué)的視角看,人工智能最早源于人類用器物和工具替代人力思考、解放人力的夢想。在公元前9—8世紀(jì)古希臘詩人荷馬的長篇敘事詩《伊利亞特》中,描繪了用黃金鑄成的火神赫菲斯托斯的女仆,“她們有會(huì)思考的心智,通說話語,行動(dòng)自如,從不死的神祇那里,已學(xué)得做事的技能”。[1]500年后,古希臘哲學(xué)家亞里士多德后來在《政治學(xué)》中引述了這個(gè)故事,并發(fā)出了慨嘆:“倘使每一無生命工具都能按照人的意志或命令而自動(dòng)進(jìn)行工作……匠師才用不到從屬,奴隸主才可放棄奴隸”。[2]如果說用器械和機(jī)器替代人類行動(dòng)和工作是對模仿人類的早期探索實(shí)踐,那么讓機(jī)器模仿人類思考,并像人類一樣具有自我學(xué)習(xí)的能力則是人工智能時(shí)代的終極目標(biāo)。正如1956年時(shí)任達(dá)特茅斯學(xué)院數(shù)學(xué)系助理教授約翰·麥卡錫所說“我們的目標(biāo)是‘真正的’智能,而不是所謂‘人工的’智能。”換言之,人工智能不僅僅是工具,而是有思想的“新生物”。正是在造福人類的美好夢想的推動(dòng)下,人工智能技術(shù)才能在半個(gè)多世紀(jì)的發(fā)展歷程中,逆境堅(jiān)守,峰回路轉(zhuǎn),將人類社會(huì)帶入萬物智聯(lián)的人工智能時(shí)代。
如同其他革命性技術(shù)一樣,人工智能技術(shù)同樣面臨著科林格里奇困境。1980年,英國技術(shù)哲學(xué)家大衛(wèi)·科林格里奇(David Collingridge)在其著作《技術(shù)的社會(huì)控制》中描述了技術(shù)控制的兩難困境:一項(xiàng)技術(shù)如果因?yàn)閾?dān)心不良后果而過早實(shí)施控制,那么技術(shù)很可能就難以爆發(fā);反之,如果控制過晚,已經(jīng)成為整個(gè)經(jīng)濟(jì)和社會(huì)結(jié)構(gòu)的一部分,再來解決不良問題就會(huì)變得昂貴、困難和耗時(shí)間,甚至難以或不能改變。[3]然而,與其他革命性技術(shù)不同的是,人工智能技術(shù)的發(fā)展始終伴隨著人類對其取代自身的終極擔(dān)憂,特別是當(dāng)生成式人工智能技術(shù)取得創(chuàng)新性突破之后。正如亨利·基辛格在其最后一本著作《人工智能時(shí)代與人類未來》中所說的:“縱觀歷史,人類并非沒有經(jīng)歷過技術(shù)變革。然而,從根本上改變我們這個(gè)社會(huì)的社會(huì)架構(gòu)和政治架構(gòu)的技術(shù)卻屈指可數(shù)……但人工智能有望在人類體驗(yàn)的所有領(lǐng)域帶來變革。變革的核心最終將發(fā)生在哲學(xué)層面,即改變?nèi)祟惱斫猬F(xiàn)實(shí)的方式以及我們在其中扮演的角色。”[4]
二、人工智能的國家安全風(fēng)險(xiǎn)
人工智能特別是生成式人工智能取得重大突破,標(biāo)志著人工智能技術(shù)有望從弱人工智能實(shí)現(xiàn)向強(qiáng)人工智能的飛躍。人工智能技術(shù)所具有的通用性、智能性和不可解釋性等特點(diǎn)在給社會(huì)帶來非凡增長機(jī)遇的同時(shí),其所帶來和即將帶來的安全風(fēng)險(xiǎn)也引發(fā)各方高度關(guān)注。總體上看,人工智能帶來的國家安全風(fēng)險(xiǎn)主要表現(xiàn)在三個(gè)方面:一是系統(tǒng)性,二是倫理性,三是軍事性。
首先,作為一項(xiàng)通用使能技術(shù),隨著人工智能技術(shù)向國家政治、經(jīng)濟(jì)和社會(huì)生活各領(lǐng)域的不斷滲透和擴(kuò)展,它所帶來的安全風(fēng)險(xiǎn)將可能出現(xiàn)在技術(shù)應(yīng)用的各個(gè)節(jié)點(diǎn)。就目前態(tài)勢而言,網(wǎng)絡(luò)攻擊者利用人工智能技術(shù),可以高準(zhǔn)確度猜測、模仿、學(xué)習(xí)甚至是欺騙檢測規(guī)則,挑戰(zhàn)網(wǎng)絡(luò)防御的核心規(guī)則;與既有攻擊手段融合在網(wǎng)絡(luò)攻擊效率、網(wǎng)絡(luò)攻擊范圍、網(wǎng)絡(luò)攻擊手段等方面加劇網(wǎng)絡(luò)攻防長期存在的不對等局面;人工智能與區(qū)塊鏈、虛擬現(xiàn)實(shí)等技術(shù)結(jié)合還可催生出新型有害信息,形成有針對性的傳播目標(biāo),衍生有害信息傳播新模式,并加大數(shù)據(jù)和用戶隱私全面泄漏的風(fēng)險(xiǎn)。未來,人工智能技術(shù)帶來的安全風(fēng)險(xiǎn)還將進(jìn)一步從網(wǎng)絡(luò)安全領(lǐng)域向政治、經(jīng)濟(jì)、社會(huì)等各領(lǐng)域擴(kuò)散,帶來諸如數(shù)據(jù)投毒、就業(yè)結(jié)構(gòu)大幅度調(diào)整等各種沖擊。由于人工智能是一個(gè)新興的領(lǐng)域,安全體系和能力建設(shè)在該領(lǐng)域普遍還存在一定的真空和較大的延滯,對國家安全帶來整體上系統(tǒng)性的風(fēng)險(xiǎn),需要加以系統(tǒng)性應(yīng)對。如美國政治風(fēng)險(xiǎn)咨詢公司歐亞集團(tuán)總裁、政治學(xué)者伊恩·布雷默指出,生成式人工智能的迭代升級速度超乎想象,國家試圖控制人工智能并使其為己所用,但遠(yuǎn)遠(yuǎn)跟不上人工智能的升級和普及速度;這一技術(shù)很有可能威脅民族國家作為世界地緣政治主體的地位,并將引發(fā)全球權(quán)力結(jié)構(gòu)和平衡的根本轉(zhuǎn)變。[5]
其次,人工智能技術(shù)的智能性和過程的不可解釋性,還將加劇人工智能應(yīng)用的倫理性風(fēng)險(xiǎn)。人工智能技術(shù)之所以被稱之為“一場革命”,是因?yàn)樗粌H僅是在“模擬”人類的智能,而是它可以用自己的邏輯,能夠在紛繁復(fù)雜的眾多可能性中識別出那些人類智能還無法理解或識別的現(xiàn)實(shí)和規(guī)律。例如人工智能在藥物研發(fā)過程中不僅能夠識別那些訓(xùn)練數(shù)據(jù)中抗菌分子的特質(zhì),還能識別出人類尚未概念化或加以分類的編碼特性。然而,在這些“創(chuàng)造性”智能涌現(xiàn)的背后,是人工智能的功能錯(cuò)綜復(fù)雜,表現(xiàn)為過程的不可解釋性,人類至今仍不確定這些程序是如何實(shí)現(xiàn)目標(biāo)的,有些結(jié)果可以驗(yàn)證獲知真?zhèn)?,但有些生成的文本結(jié)果卻很可能在“一本正經(jīng)地說著假話”。這樣的人工智能技術(shù)在產(chǎn)業(yè)化應(yīng)用過程中必然會(huì)帶來不可控的安全風(fēng)險(xiǎn),特別是倫理風(fēng)險(xiǎn)。牛津大學(xué)人類未來研究所所長、哲學(xué)家Nick Bostrom曾經(jīng)提出一個(gè)被稱為“回形針隱喻”的經(jīng)典案例,他描述了一個(gè)能力強(qiáng)大的超級智能機(jī)器,為執(zhí)行“制作盡可能多回形針”的任務(wù),最終把地球上所有的人和物都變成了制作回形針的材料,以此揭示了“人工智能不具有人類諸如生命等價(jià)值觀念”的邏輯,即:人工智能的智能性越大,造成威脅的潛在可能性就越大,傷害力也就越強(qiáng)。據(jù)BBC中文網(wǎng)報(bào)道,2023年11月,韓國一名機(jī)器人公司的檢修人員被蔬菜分揀機(jī)器人壓死,原因是機(jī)器人把他當(dāng)成了需要處理的一盒蔬菜。[6]可見,源于人工智能“智能性”的倫理風(fēng)險(xiǎn)將成為其能否在諸多領(lǐng)域進(jìn)一步產(chǎn)業(yè)化和社會(huì)化應(yīng)用的重大挑戰(zhàn)。
最后,從外部安全來看,人工智能的武器化和軍事化應(yīng)用已成為威脅國際和平與安全的重要變量。如同其他新興技術(shù),人工智能在軍事領(lǐng)域的應(yīng)用也不可避免,但人工智能的威力在于它是一種能夠推動(dòng)整體軍事能力和文化產(chǎn)生根本性變化,并在不同軍事領(lǐng)域快速形成衍生技術(shù)的通用使能技術(shù)。[7]例如,它可以通過大幅提升戰(zhàn)場認(rèn)知能力,提高無人裝備自主性,改變參與戰(zhàn)爭的人力與機(jī)器資源配置等,以更加智能、高效的方式在戰(zhàn)場上起到替代和協(xié)助的角色,并且通過大規(guī)模集結(jié)的“蜂群”效應(yīng)對傳統(tǒng)的戰(zhàn)爭形態(tài)、作戰(zhàn)理念、裝備體系等方面產(chǎn)生顛覆性的變革。例如,當(dāng)具有納秒級OODA循環(huán)[8]的機(jī)器人開始主導(dǎo)戰(zhàn)場時(shí),具有毫秒級OODA循環(huán)的人類無疑將成為戰(zhàn)場進(jìn)攻和防御中最薄弱的環(huán)節(jié);智能化的武器系統(tǒng)不再完全依賴人的操控,而是具備了更多的決策自主性,通過目標(biāo)識別和跟蹤算法對拍下的戰(zhàn)場態(tài)勢如圖像和視頻進(jìn)行自主判定,根據(jù)復(fù)雜的戰(zhàn)場態(tài)勢自主選擇前進(jìn)路線完成預(yù)設(shè)任務(wù),展現(xiàn)出傳統(tǒng)武器無法比擬的精確度、可靠性、速度與耐力等新特質(zhì)。然而,也正是更加智能、更加強(qiáng)大的自主性武器正在讓戰(zhàn)場態(tài)勢更加容易失控和被推卸責(zé)任,傳統(tǒng)武裝沖突中調(diào)停、斡旋等預(yù)防沖突升級的空間將會(huì)急劇縮小,且戰(zhàn)場形勢一旦失控往往會(huì)帶來沖突各方都意想不到的災(zāi)難性后果。從另一個(gè)角度看,或許,核武器之后,智能威懾的時(shí)代到來了。
三、智能時(shí)代的國家安全
近段時(shí)間,世界主要國家和經(jīng)濟(jì)體紛紛出臺有關(guān)人工智能監(jiān)管的立法和治理倡議,以降低人工智能帶來的安全風(fēng)險(xiǎn)。在國家層面,2023年10月,作為世界人工智能領(lǐng)域的頭號強(qiáng)國,美國總統(tǒng)拜登簽署了一項(xiàng)確保“人工智能安全、可靠并值得信賴”的行政命令,為涉及人工智能安全的事項(xiàng)制定了新標(biāo)準(zhǔn),包括旨在保護(hù)消費(fèi)者的新隱私保護(hù)措施;12月,歐盟委員會(huì)、歐洲議會(huì)和27個(gè)成員國的代表達(dá)成一項(xiàng)三方協(xié)議,同意對生成式人工智能工具進(jìn)行監(jiān)管,歐盟即將迎來全球首個(gè)全面的人工智能法案。盡管各國在人工智能監(jiān)管和發(fā)展問題上的觀點(diǎn)和目標(biāo)仍有很大分歧,但在全球范圍內(nèi)推動(dòng)人工智能監(jiān)管的共同意愿正日趨明朗。2023年10月,中國提出《全球人工智能治理倡議》,呼吁通過對話與合作凝聚共識,構(gòu)建開放、公正、有效的治理機(jī)制,促進(jìn)人工智能技術(shù)造福于人類,推動(dòng)構(gòu)建人類命運(yùn)共同體;11月,首屆全球人工智能安全峰會(huì)在英國召開,中國等28個(gè)國家和歐盟簽署《布萊切利宣言》,這也是全球第一份針對人工智能技術(shù)的國際性聲明。不言而喻,在全球治理進(jìn)入人工智能時(shí)代的當(dāng)下,如何堅(jiān)持發(fā)展和安全并重,在加強(qiáng)監(jiān)管的同時(shí)盡可能發(fā)揮人工智能技術(shù)的賦能作用,已經(jīng)成為新時(shí)代國家治理能力現(xiàn)代化的重要命題。
習(xí)近平總書記高度關(guān)注人工智能技術(shù)發(fā)展,強(qiáng)調(diào)“要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判和防范,維護(hù)人民利益和國家安全,確保人工智能安全、可靠、可控”。在此,對人工智能的安全風(fēng)險(xiǎn)和影響進(jìn)行客觀分析并理性應(yīng)對是非常必要的。首先,安全風(fēng)險(xiǎn)無處不在,絕對安全無法實(shí)現(xiàn),重要的是推進(jìn)相關(guān)安全能力建設(shè),筑牢防范安全風(fēng)險(xiǎn)的盾牌。安全能力的提升不僅意味著要增加必要的安全投入,更重要的是提升安全能力的產(chǎn)出效率,例如針對不同類型的安全風(fēng)險(xiǎn)采取有針對性的安全風(fēng)險(xiǎn)防范措施,以安全保障發(fā)展為政策目標(biāo)。其次,堅(jiān)持全力推動(dòng)人工智能技術(shù)創(chuàng)新的同時(shí),對人工智能的產(chǎn)業(yè)化應(yīng)用守住倫理道德底線,底線的劃分應(yīng)清晰明確,避免邊界模糊造成安全泛化,抑制技術(shù)的創(chuàng)新應(yīng)用,同時(shí)應(yīng)明確,倫理道德風(fēng)險(xiǎn)無法完全消除,重要的是在風(fēng)險(xiǎn)中不斷推動(dòng)安全體系的構(gòu)建和能力的提升。最后,人工智能的軍事化應(yīng)用很可能具備如核武器一樣的威懾力,要實(shí)現(xiàn)智能威懾下的戰(zhàn)略穩(wěn)定,其前提條件是必須具備足夠的實(shí)力,跨過“智能軍事的門檻”,這也就意味著在當(dāng)前階段,人工智能治理應(yīng)倡導(dǎo)發(fā)展優(yōu)先,因?yàn)椴话l(fā)展才是最大的不安全。
總之,不論人工智能的發(fā)展走到何種程度,人工智能已成為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的顛覆性技術(shù),也充分展現(xiàn)了它賦能各行各業(yè)的無限廣闊的應(yīng)用前景。當(dāng)下,其最終的歸宿仍然未定,而我們?nèi)杂袝r(shí)間和機(jī)會(huì)在科林格里奇困境走向極致之前尋得發(fā)展與安全的平衡之道,盡快筑牢安全屏障,擁抱智能時(shí)代的到來。
注釋:
[1] 荷馬:《伊利亞特》,陳中梅譯,上海:上海譯文出版社2016年版,第448頁。
[2] 亞里士多德:《政治學(xué)》,吳壽彭譯,北京:商務(wù)印書館1965年版,第10頁。
[3] David Collingridge, The Social Control of Technology, Pinter, London, 1980.
[4] 亨利·基辛格、埃里克·施密特、丹尼爾·胡滕洛赫爾:《人工智能時(shí)代與人類未來》,胡利平、風(fēng)君譯,北京:中信出版集團(tuán)2023年版,第15-16頁。
[5] Ian Bremmer,“The AI Power Paradox: Can States Learn to Govern Artificial Intelligence—Before It’s Too Late?” Foreign Affairs, August 2023
[6] “韓國男子被機(jī)器人誤當(dāng)成蔬菜壓死,歷史上還有過這些類似事件,”澎湃新聞,2023年11月10日
[7] 楊學(xué)軍、吳朝暉等著:《人工智能——重塑秩序的力量》,北京:科學(xué)出版社2023年版,第171頁。
[8] 軍事理論中的包以德循環(huán)也稱OODA循環(huán),基本觀點(diǎn)是武裝沖突可以看做是敵對雙方互相較量誰能更快更好地完成“觀察—調(diào)整—決策—行動(dòng)”的循環(huán)程序。
(作者系中國社會(huì)科學(xué)院世界經(jīng)濟(jì)與政治研究所研究員)
已有0人發(fā)表了評論