中國社會科學網:關于人工智能與國家安全的若干思考

最近中文2019字幕第二页,艳妇乳肉豪妇荡乳,中日韩高清无专码区2021,中文字幕乱码无码人妻系列蜜桃,曰本极品少妇videossexhd

中國社會科學網:關于人工智能與國家安全的若干思考

當下,世界之變、時代之變、歷史之變正以前所未有的方式展開,而作為時代之變的重要內容,數字技術革命,特別是正在興起的人工智能革命,已經成為推動世界大變局加速演進、重塑世界秩序的重要力量。2022年末,生成式人工智能ChatGPT橫空出世以及人工智能技術在烏克蘭危機中的初露鋒芒,讓人工智能治理迅速升溫,成為各國和國際社會關注的焦點。正確認識人工智能對社會和國家安全的影響,客觀評估其所帶來的安全風險,有助于我們更從容地邁入智能時代的未來。

一、人工智能給人類社會帶來了什么

了解歷史、尊重歷史才能更好把握當下。論及人工智能技術發(fā)展歷史的原點,我們不可避免地要回溯到1956年夏季在美國新罕布什爾州漢諾威小鎮(zhèn)達特茅斯學院召開的一次研討會,史稱“達特茅斯會議”。在此次會議上,近30位在信息論、邏輯和計算理論、控制論、機器學習、神經網絡等領域有卓越成就的學者齊聚達特茅斯學院,圍繞“用機器來模擬人類學習及人類智能的其他特征”,展開了為期兩個月的研究討論,并且正式提出了“人工智能”(artificial intelligence)的概念。由此,人工智能正式登上了人類的歷史舞臺,科學家們就如何用機器實現“人的智能”開始了數十年的研究。經歷了兩次浪潮和兩次寒冬,克服了符號表達、神經網絡和控制論的流派路線之爭,人工智能終于在數字時代算力提升、算法革新和大數據技術的助推下,在21世紀20年代迎來了第三次發(fā)展浪潮,也將人類社會推到了最為接近通用人工智能時代的歷史節(jié)點。

在思考人工智能究竟會給社會和人類帶來什么樣的未來之前,有必要先明晰人工智能向前演進的動力和方向。從哲學的視角看,人工智能最早源于人類用器物和工具替代人力思考、解放人力的夢想。在公元前9—8世紀古希臘詩人荷馬的長篇敘事詩《伊利亞特》中,描繪了用黃金鑄成的火神赫菲斯托斯的女仆,“她們有會思考的心智,通說話語,行動自如,從不死的神祇那里,已學得做事的技能”。[1]500年后,古希臘哲學家亞里士多德后來在《政治學》中引述了這個故事,并發(fā)出了慨嘆:“倘使每一無生命工具都能按照人的意志或命令而自動進行工作……匠師才用不到從屬,奴隸主才可放棄奴隸”。[2]如果說用器械和機器替代人類行動和工作是對模仿人類的早期探索實踐,那么讓機器模仿人類思考,并像人類一樣具有自我學習的能力則是人工智能時代的終極目標。正如1956年時任達特茅斯學院數學系助理教授約翰·麥卡錫所說“我們的目標是‘真正的’智能,而不是所謂‘人工的’智能。”換言之,人工智能不僅僅是工具,而是有思想的“新生物”。正是在造福人類的美好夢想的推動下,人工智能技術才能在半個多世紀的發(fā)展歷程中,逆境堅守,峰回路轉,將人類社會帶入萬物智聯的人工智能時代。

如同其他革命性技術一樣,人工智能技術同樣面臨著科林格里奇困境。1980年,英國技術哲學家大衛(wèi)·科林格里奇(David Collingridge)在其著作《技術的社會控制》中描述了技術控制的兩難困境:一項技術如果因為擔心不良后果而過早實施控制,那么技術很可能就難以爆發(fā);反之,如果控制過晚,已經成為整個經濟和社會結構的一部分,再來解決不良問題就會變得昂貴、困難和耗時間,甚至難以或不能改變。[3]然而,與其他革命性技術不同的是,人工智能技術的發(fā)展始終伴隨著人類對其取代自身的終極擔憂,特別是當生成式人工智能技術取得創(chuàng)新性突破之后。正如亨利·基辛格在其最后一本著作《人工智能時代與人類未來》中所說的:“縱觀歷史,人類并非沒有經歷過技術變革。然而,從根本上改變我們這個社會的社會架構和政治架構的技術卻屈指可數……但人工智能有望在人類體驗的所有領域帶來變革。變革的核心最終將發(fā)生在哲學層面,即改變人類理解現實的方式以及我們在其中扮演的角色。”[4]

二、人工智能的國家安全風險

人工智能特別是生成式人工智能取得重大突破,標志著人工智能技術有望從弱人工智能實現向強人工智能的飛躍。人工智能技術所具有的通用性、智能性和不可解釋性等特點在給社會帶來非凡增長機遇的同時,其所帶來和即將帶來的安全風險也引發(fā)各方高度關注??傮w上看,人工智能帶來的國家安全風險主要表現在三個方面:一是系統性,二是倫理性,三是軍事性。

首先,作為一項通用使能技術,隨著人工智能技術向國家政治、經濟和社會生活各領域的不斷滲透和擴展,它所帶來的安全風險將可能出現在技術應用的各個節(jié)點。就目前態(tài)勢而言,網絡攻擊者利用人工智能技術,可以高準確度猜測、模仿、學習甚至是欺騙檢測規(guī)則,挑戰(zhàn)網絡防御的核心規(guī)則;與既有攻擊手段融合在網絡攻擊效率、網絡攻擊范圍、網絡攻擊手段等方面加劇網絡攻防長期存在的不對等局面;人工智能與區(qū)塊鏈、虛擬現實等技術結合還可催生出新型有害信息,形成有針對性的傳播目標,衍生有害信息傳播新模式,并加大數據和用戶隱私全面泄漏的風險。未來,人工智能技術帶來的安全風險還將進一步從網絡安全領域向政治、經濟、社會等各領域擴散,帶來諸如數據投毒、就業(yè)結構大幅度調整等各種沖擊。由于人工智能是一個新興的領域,安全體系和能力建設在該領域普遍還存在一定的真空和較大的延滯,對國家安全帶來整體上系統性的風險,需要加以系統性應對。如美國政治風險咨詢公司歐亞集團總裁、政治學者伊恩·布雷默指出,生成式人工智能的迭代升級速度超乎想象,國家試圖控制人工智能并使其為己所用,但遠遠跟不上人工智能的升級和普及速度;這一技術很有可能威脅民族國家作為世界地緣政治主體的地位,并將引發(fā)全球權力結構和平衡的根本轉變。[5]

其次,人工智能技術的智能性和過程的不可解釋性,還將加劇人工智能應用的倫理性風險。人工智能技術之所以被稱之為“一場革命”,是因為它不僅僅是在“模擬”人類的智能,而是它可以用自己的邏輯,能夠在紛繁復雜的眾多可能性中識別出那些人類智能還無法理解或識別的現實和規(guī)律。例如人工智能在藥物研發(fā)過程中不僅能夠識別那些訓練數據中抗菌分子的特質,還能識別出人類尚未概念化或加以分類的編碼特性。然而,在這些“創(chuàng)造性”智能涌現的背后,是人工智能的功能錯綜復雜,表現為過程的不可解釋性,人類至今仍不確定這些程序是如何實現目標的,有些結果可以驗證獲知真?zhèn)?,但有些生成的文本結果卻很可能在“一本正經地說著假話”。這樣的人工智能技術在產業(yè)化應用過程中必然會帶來不可控的安全風險,特別是倫理風險。牛津大學人類未來研究所所長、哲學家Nick Bostrom曾經提出一個被稱為“回形針隱喻”的經典案例,他描述了一個能力強大的超級智能機器,為執(zhí)行“制作盡可能多回形針”的任務,最終把地球上所有的人和物都變成了制作回形針的材料,以此揭示了“人工智能不具有人類諸如生命等價值觀念”的邏輯,即:人工智能的智能性越大,造成威脅的潛在可能性就越大,傷害力也就越強。據BBC中文網報道,2023年11月,韓國一名機器人公司的檢修人員被蔬菜分揀機器人壓死,原因是機器人把他當成了需要處理的一盒蔬菜。[6]可見,源于人工智能“智能性”的倫理風險將成為其能否在諸多領域進一步產業(yè)化和社會化應用的重大挑戰(zhàn)。

最后,從外部安全來看,人工智能的武器化和軍事化應用已成為威脅國際和平與安全的重要變量。如同其他新興技術,人工智能在軍事領域的應用也不可避免,但人工智能的威力在于它是一種能夠推動整體軍事能力和文化產生根本性變化,并在不同軍事領域快速形成衍生技術的通用使能技術。[7]例如,它可以通過大幅提升戰(zhàn)場認知能力,提高無人裝備自主性,改變參與戰(zhàn)爭的人力與機器資源配置等,以更加智能、高效的方式在戰(zhàn)場上起到替代和協助的角色,并且通過大規(guī)模集結的“蜂群”效應對傳統的戰(zhàn)爭形態(tài)、作戰(zhàn)理念、裝備體系等方面產生顛覆性的變革。例如,當具有納秒級OODA循環(huán)[8]的機器人開始主導戰(zhàn)場時,具有毫秒級OODA循環(huán)的人類無疑將成為戰(zhàn)場進攻和防御中最薄弱的環(huán)節(jié);智能化的武器系統不再完全依賴人的操控,而是具備了更多的決策自主性,通過目標識別和跟蹤算法對拍下的戰(zhàn)場態(tài)勢如圖像和視頻進行自主判定,根據復雜的戰(zhàn)場態(tài)勢自主選擇前進路線完成預設任務,展現出傳統武器無法比擬的精確度、可靠性、速度與耐力等新特質。然而,也正是更加智能、更加強大的自主性武器正在讓戰(zhàn)場態(tài)勢更加容易失控和被推卸責任,傳統武裝沖突中調停、斡旋等預防沖突升級的空間將會急劇縮小,且戰(zhàn)場形勢一旦失控往往會帶來沖突各方都意想不到的災難性后果。從另一個角度看,或許,核武器之后,智能威懾的時代到來了。

三、智能時代的國家安全

近段時間,世界主要國家和經濟體紛紛出臺有關人工智能監(jiān)管的立法和治理倡議,以降低人工智能帶來的安全風險。在國家層面,2023年10月,作為世界人工智能領域的頭號強國,美國總統拜登簽署了一項確保“人工智能安全、可靠并值得信賴”的行政命令,為涉及人工智能安全的事項制定了新標準,包括旨在保護消費者的新隱私保護措施;12月,歐盟委員會、歐洲議會和27個成員國的代表達成一項三方協議,同意對生成式人工智能工具進行監(jiān)管,歐盟即將迎來全球首個全面的人工智能法案。盡管各國在人工智能監(jiān)管和發(fā)展問題上的觀點和目標仍有很大分歧,但在全球范圍內推動人工智能監(jiān)管的共同意愿正日趨明朗。2023年10月,中國提出《全球人工智能治理倡議》,呼吁通過對話與合作凝聚共識,構建開放、公正、有效的治理機制,促進人工智能技術造福于人類,推動構建人類命運共同體;11月,首屆全球人工智能安全峰會在英國召開,中國等28個國家和歐盟簽署《布萊切利宣言》,這也是全球第一份針對人工智能技術的國際性聲明。不言而喻,在全球治理進入人工智能時代的當下,如何堅持發(fā)展和安全并重,在加強監(jiān)管的同時盡可能發(fā)揮人工智能技術的賦能作用,已經成為新時代國家治理能力現代化的重要命題。

習近平總書記高度關注人工智能技術發(fā)展,強調“要加強人工智能發(fā)展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控”。在此,對人工智能的安全風險和影響進行客觀分析并理性應對是非常必要的。首先,安全風險無處不在,絕對安全無法實現,重要的是推進相關安全能力建設,筑牢防范安全風險的盾牌。安全能力的提升不僅意味著要增加必要的安全投入,更重要的是提升安全能力的產出效率,例如針對不同類型的安全風險采取有針對性的安全風險防范措施,以安全保障發(fā)展為政策目標。其次,堅持全力推動人工智能技術創(chuàng)新的同時,對人工智能的產業(yè)化應用守住倫理道德底線,底線的劃分應清晰明確,避免邊界模糊造成安全泛化,抑制技術的創(chuàng)新應用,同時應明確,倫理道德風險無法完全消除,重要的是在風險中不斷推動安全體系的構建和能力的提升。最后,人工智能的軍事化應用很可能具備如核武器一樣的威懾力,要實現智能威懾下的戰(zhàn)略穩(wěn)定,其前提條件是必須具備足夠的實力,跨過“智能軍事的門檻”,這也就意味著在當前階段,人工智能治理應倡導發(fā)展優(yōu)先,因為不發(fā)展才是最大的不安全。

總之,不論人工智能的發(fā)展走到何種程度,人工智能已成為引領新一輪科技革命和產業(yè)變革的顛覆性技術,也充分展現了它賦能各行各業(yè)的無限廣闊的應用前景。當下,其最終的歸宿仍然未定,而我們仍有時間和機會在科林格里奇困境走向極致之前尋得發(fā)展與安全的平衡之道,盡快筑牢安全屏障,擁抱智能時代的到來。

注釋:

[1] 荷馬:《伊利亞特》,陳中梅譯,上海:上海譯文出版社2016年版,第448頁。

[2] 亞里士多德:《政治學》,吳壽彭譯,北京:商務印書館1965年版,第10頁。

[3] David Collingridge, The Social Control of Technology, Pinter, London, 1980.

[4] 亨利·基辛格、埃里克·施密特、丹尼爾·胡滕洛赫爾:《人工智能時代與人類未來》,胡利平、風君譯,北京:中信出版集團2023年版,第15-16頁。

[5] Ian Bremmer,“The AI Power Paradox: Can States Learn to Govern Artificial Intelligence—Before It’s Too Late?” Foreign Affairs, August 2023

[6] “韓國男子被機器人誤當成蔬菜壓死,歷史上還有過這些類似事件,”澎湃新聞,2023年11月10日

[7] 楊學軍、吳朝暉等著:《人工智能——重塑秩序的力量》,北京:科學出版社2023年版,第171頁。

[8] 軍事理論中的包以德循環(huán)也稱OODA循環(huán),基本觀點是武裝沖突可以看做是敵對雙方互相較量誰能更快更好地完成“觀察—調整—決策—行動”的循環(huán)程序。

(作者系中國社會科學院世界經濟與政治研究所研究員)

責任編輯:張慕琪校對:吳成玲最后修改:
0

精選專題

領航新時代

精選文章

精選視頻

精選圖片

微信公眾平臺:搜索“宣講家”或掃描下面的二維碼:
宣講家微信公眾平臺
您也可以通過點擊圖標來訪問官方微博或下載手機客戶端:
微博
微博
客戶端
客戶端
京公網安備京公網安備 11010102001556號