首頁(yè) > 軍事科技 > 正文

美軍AI軍事化:技術(shù)狂飆下的倫理與霸權(quán)危機(jī)

然而,AI的賦能并非無(wú)懈可擊。在伊朗行動(dòng)中,美軍因使用“過(guò)時(shí)情報(bào)”誤擊一所小學(xué),導(dǎo)致175名兒童死亡。盡管美軍聲稱目標(biāo)確認(rèn)需經(jīng)中將以上指揮官批準(zhǔn),但AI的快速?zèng)Q策機(jī)制可能削弱了人工核查的嚴(yán)謹(jǐn)性。此外,AI的“自動(dòng)化偏見(jiàn)”問(wèn)題也日益凸顯:在巴勒斯坦戰(zhàn)場(chǎng),以色列的“薰衣草”系統(tǒng)因數(shù)據(jù)偏差誤殺大量平民,暴露了算法歧視的致命缺陷。

倫理失范:算法掌控生殺大權(quán)的危機(jī)

美軍對(duì)AI的依賴正侵蝕戰(zhàn)爭(zhēng)的倫理與責(zé)任約束。Anthropic公司開(kāi)發(fā)的Claude模型因拒絕移除“安全護(hù)欄”(如禁止用于自主武器和大規(guī)模監(jiān)控),被美國(guó)國(guó)防部列為“供應(yīng)鏈風(fēng)險(xiǎn)”。五角大樓要求AI公司“無(wú)限制軍事應(yīng)用”,甚至允許模型自行判斷是否使用自動(dòng)武器系統(tǒng)。這種“算法即法律”的邏輯,將戰(zhàn)爭(zhēng)決策權(quán)從人類指揮官轉(zhuǎn)移至機(jī)器,導(dǎo)致“誤擊”責(zé)任難以追溯。

更嚴(yán)峻的是,AI的軍事化應(yīng)用可能引發(fā)“技術(shù)失控”。在墨西哥網(wǎng)絡(luò)攻擊事件中,黑客利用AI聊天軟件突破模型安全防護(hù),指揮政府網(wǎng)絡(luò)攻擊,竊取1.95億公民數(shù)據(jù)。若此類攻擊應(yīng)用于軍事領(lǐng)域,后果不堪設(shè)想。正如中國(guó)國(guó)防部發(fā)言人蔣斌所言:“不加限制地推進(jìn)人工智能軍事化,可能使《終結(jié)者》的災(zāi)難場(chǎng)景成為現(xiàn)實(shí)。”

大家都在看