美國(guó)國(guó)防部5月1日透露,國(guó)防部已與七大科技巨頭簽署了一份總價(jià)高達(dá)540億美元的超級(jí)合同,將把谷歌、微軟、亞馬遜云科技、英偉達(dá)、開放人工智能研究中心、反射人工智能、太空探索這七家公司的人工智能(AI)技術(shù)應(yīng)用于美軍機(jī)密計(jì)算機(jī)網(wǎng)絡(luò),協(xié)助“作戰(zhàn)人員在復(fù)雜作戰(zhàn)環(huán)境中優(yōu)化決策”,縮短在戰(zhàn)場(chǎng)上識(shí)別和打擊目標(biāo)所需的時(shí)間。
這個(gè)新舉措表明,七大科技巨頭全面“入列”美軍體系,成為美國(guó)軍力組成部分,美軍的情報(bào)分析、目標(biāo)鎖定、作戰(zhàn)方案生成、火力打擊排序等可能全鏈條被人工智能接管,作戰(zhàn)力量AI化轉(zhuǎn)型全面加速。這種“人工智能+戰(zhàn)爭(zhēng)”模式意味著,人工智能軍事應(yīng)用的倫理邊界與政策管控,正在被戰(zhàn)爭(zhēng)的緊迫性一步步系統(tǒng)性突破。而當(dāng)人類的戰(zhàn)爭(zhēng)以前所未有的速度走向智能化、自動(dòng)化、無人化,當(dāng)算法主宰戰(zhàn)場(chǎng)、機(jī)器掌管生殺大權(quán),人類再次站到了文明與毀滅的懸崖邊上。
恩格斯曾指出,“人類以什么樣的方式生產(chǎn),就以什么樣的方式作戰(zhàn)”,而“一旦技術(shù)上的進(jìn)步可以用于軍事目的并且已經(jīng)用于軍事目的,它們便立刻幾乎強(qiáng)制地,而且往往是違反指揮官的意志而引起作戰(zhàn)方式上的改變甚至變革”。?
如今,人工智能技術(shù)已從俄烏戰(zhàn)場(chǎng)上的“放大鏡”升級(jí)為中東戰(zhàn)場(chǎng)上的“指揮官”,持續(xù)突破并系統(tǒng)重塑著傳統(tǒng)戰(zhàn)爭(zhēng)的時(shí)空邊界與力量結(jié)構(gòu)。它能夠極速縮短“感知-判斷-決策-打擊”鏈條,把復(fù)雜任務(wù)完成時(shí)長(zhǎng)從數(shù)月壓縮至數(shù)日,數(shù)小時(shí)的決策縮短到幾分鐘,并在幾秒內(nèi)生成數(shù)十套作戰(zhàn)方案,把現(xiàn)代戰(zhàn)爭(zhēng)變成一場(chǎng)冷血的高效游戲。
美軍在此次對(duì)伊朗的軍事行動(dòng)中大規(guī)模把人工智能用于實(shí)戰(zhàn),美媒稱之為“第一次真正意義上的人工智能戰(zhàn)爭(zhēng)”。開戰(zhàn)首日,美軍中央司令部就在人工智能輔助系統(tǒng)支撐下,不到24小時(shí)完成了超過1000個(gè)目標(biāo)的精確打擊,效率遠(yuǎn)超傳統(tǒng)戰(zhàn)爭(zhēng),但也因被定性為目標(biāo)識(shí)別錯(cuò)誤而釀成伊朗小學(xué)遇襲、逾百名兒童喪生等慘劇。正因算法只看置信度、傷亡率、推進(jìn)速度,看不見無辜和平民、分不清善意與敵意、更無法理解戰(zhàn)爭(zhēng)的道德重量,冷酷的數(shù)字邏輯取代了有溫度的生命尊嚴(yán)。當(dāng)殺戮變成按鍵操作,戰(zhàn)爭(zhēng)的人性底線正在被徹底擊穿。
比效率更可怕的,是算法黑箱帶來的責(zé)任虛無。軍事人工智能決策過程不透明、不可解釋,像一只無法透視的“黑箱”。訓(xùn)練數(shù)據(jù)的偏見、使用情報(bào)的陳舊、對(duì)抗樣本的欺騙、模型過程的缺陷,都可能誘發(fā)致命性誤判。可一旦發(fā)生誤傷平民、誤擊友軍、升級(jí)沖突,責(zé)任該歸誰?是寫代碼的工程師、訓(xùn)練數(shù)據(jù)的標(biāo)注者、下達(dá)指令的指揮官,還是給出建議的算法?責(zé)任鏈條越來越模糊,意味著無人為悲劇負(fù)責(zé)。當(dāng)錯(cuò)誤可以被推給數(shù)據(jù)、甩給模型、歸罪于系統(tǒng),人類對(duì)戰(zhàn)爭(zhēng)的敬畏與約束便蕩然無存。
更危險(xiǎn)的是,人工智能軍事化正在點(diǎn)燃全球新型軍備競(jìng)賽的引信。為了不陷入“智能代差”,各國(guó)爭(zhēng)相研發(fā)自主武器、智能決策系統(tǒng)、無人機(jī)蜂群戰(zhàn)術(shù)等。而隨著自主武器擴(kuò)散門檻越來越低,恐怖組織與非國(guó)家行為體也都可能低成本獲取無人作戰(zhàn)武器,小型化、智能化襲擊也就可能時(shí)常發(fā)生,和平變得更加脆弱。本應(yīng)服務(wù)于和平的前沿技術(shù),淪為大國(guó)博弈的新型武器,把世界拖入越研發(fā)越對(duì)抗、越先進(jìn)越危險(xiǎn)的惡性循環(huán)。
有人說,人工智能能減少軍人傷亡、讓戰(zhàn)爭(zhēng)更“干凈”,這其實(shí)是在自欺欺人。因?yàn)椋瑹o人化不等于無害化,遠(yuǎn)程操控不等于零傷害,精確打擊不等于人道正義。無人機(jī)操作員在千里之外喝咖啡、摁按鈕,導(dǎo)彈落地卻是血肉橫飛;人工智能把傷亡包裝成可接受的概率,把暴力美化成高效方案,只會(huì)降低發(fā)動(dòng)戰(zhàn)爭(zhēng)的心理門檻,讓武力從“最后手段”變成“首選工具”。歷史早已證明,戰(zhàn)爭(zhēng)成本越低,就越容易被輕率發(fā)動(dòng)。
其實(shí),從輔助參謀到?jīng)Q策核心,從人控制機(jī)器到機(jī)器提醒人,隨著人工智能在軍事體系中的角色不斷越位,智能戰(zhàn)爭(zhēng)正在剝奪人類對(duì)戰(zhàn)爭(zhēng)的最終控制權(quán)。當(dāng)算法比人更快、更全、更準(zhǔn)、更聰明,指揮官很容易從“主動(dòng)決策者”淪為“被動(dòng)確認(rèn)者”。正如一名以色列情報(bào)官員所說:“我作為人類的貢獻(xiàn),只是蓋章批準(zhǔn)。”然而,一旦通信中斷、系統(tǒng)被黑、算法失控,人類可能連緊急叫停的機(jī)會(huì)都沒有,科幻片中那些機(jī)器人突然失控和集體叛亂的場(chǎng)景,就有可能從虛構(gòu)走進(jìn)現(xiàn)實(shí)。
戰(zhàn)爭(zhēng)從來不是冰冷的數(shù)學(xué)題,而是政治的延續(xù)、人性的考驗(yàn)、責(zé)任的重?fù)?dān)。軍事歷史學(xué)家克勞塞維茨早已告誡世人,戰(zhàn)爭(zhēng)充滿不確定性、摩擦與道德因素,絕不能簡(jiǎn)化為公式與指標(biāo)。人工智能可以計(jì)算兵力、模擬態(tài)勢(shì)、優(yōu)化路徑,但永遠(yuǎn)無法理解正義、憐憫、克制與責(zé)任——恰恰是這些構(gòu)成了人類決策基石的價(jià)值判斷與倫理維度,成為人機(jī)協(xié)同中不可替代的“人性錨點(diǎn)”。
面對(duì)人工智能軍事化狂潮,聯(lián)合國(guó)秘書長(zhǎng)古特雷斯曾警告說,人類命運(yùn)不能交由算法決定。當(dāng)戰(zhàn)爭(zhēng)越來越智能,人類更應(yīng)保持清醒:算法可以輔助分析,但不能決定生死;機(jī)器可以提高效率,但不能取代良知。把智能用于和平,才是文明該有的選擇。否則,人類創(chuàng)造的不是更先進(jìn)的戰(zhàn)爭(zhēng),而是更徹底的毀滅。
正因如此,研究了一輩子國(guó)際關(guān)系的基辛格博士在其生前發(fā)表的最后一篇文章中專門論述“核軍控的教訓(xùn)與人工智能治理”,他指出,“不受約束的人工智能將給美國(guó)乃至世界帶來災(zāi)難性的后果;即使各國(guó)領(lǐng)導(dǎo)人不清楚未來的圖景,他們也必須立刻作出艱難的決定并采取行動(dòng)……”
智能向善,還是智能為戰(zhàn)?歷史的天平,還在算法和人性之間搖擺著。
(作者系國(guó)務(wù)院發(fā)展研究中心亞非發(fā)展研究所所長(zhǎng))
來源:中國(guó)青年報(bào)
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.