
領先的人工智能開發者,如OpenAI和Anthropic,正努力在向美國軍方推銷軟件時把握一個微妙的平衡:讓五角大樓更高效,而不讓他們的人工智能造成傷害。
如今,他們的工具尚未被用作武器,但五角大樓的首席數字和人工智能官Radha Plumb博士在接受TechCrunch電話訪問時表示,人工智能讓國防部在識別、追蹤和評估威脅方面獲得了「顯著優勢」。
「我們顯然正在增加可以加速殺伐鏈執行的方式,這樣我們的指揮官可以在適當的時間做出回應,保護我們的部隊,」Plumb說。
「殺伐鏈」指的是軍方識別、追蹤和消除威脅的過程,涉及一套複雜的感應器、平台和武器系統。Plumb表示,在殺伐鏈的計劃和策略階段,生成式人工智能正在發揮作用。
五角大樓與人工智能開發者之間的關係是相對較新的。OpenAI、Anthropic和Meta在2024年回溯了他們的使用政策,允許美國情報和國防機構使用他們的人工智能系統。然而,他們仍不允許他們的人工智能傷害人類。
當被問及五角大樓如何與人工智能模型提供商合作時,Plumb表示:「在我們將使用他們的技術,以及我們不會使用他們的技術的方面,我們已經非常清楚了。」
盡管如此,這引發了一輪人工智能公司和國防承包商之間的快速約會。
Meta在去年11月與洛克希德馬丁和Booz Allen等公司合作,將其Llama人工智能模型帶給國防機構。同一月,Anthropic與Palantir合作。在12月,OpenAI與Anduril達成了類似的協議。更低調的是,Cohere也一直在與Palantir部署其模型。
隨著生成式人工智能證明了它在五角大樓的有效性,這可能推動矽谷放寬其人工智能使用政策,並允許更多的軍事應用。
Plumb表示:「在不同方案中進行模擬是生成式人工智能可以派上用場的地方。這讓您能利用指揮官擁有的各種工具的全套選項,並且在存在一個或一系列需要被制裁的潛在威脅的環境中,還能創造性地思考不同的回應選項和潛在取捨。」
目前仍不清楚五角大樓正在使用哪家公司的技術進行這項工作;在殺伐鏈中使用生成式人工智能(即使在早期計劃階段)似乎違反了幾家領先模型開發商的使用政策。例如,Anthropic的政策禁止使用其模型來製造或修改「旨在對人類造成傷害或生命損失的系統」。
作為對我們提問的回應,Anthropic引導TechCrunch關注其首席埃里克的最近接受《金融時報》採訪的言論,他捍衛了他的軍事工作:
我認為我們永遠不應該在防禦和情報領域使用人工智能的立場對我來說是不合理的。我們應該使用人工智能讓我們製造任何想要的東西,甚至包括末日武器的立場顯然也是荒謬的。我們正試圖尋求中間道路,負責任地做事。
OpenAI、Meta和Cohere未回應TechCrunch的置詢。
生死和人工智能武器
近幾個月來,圍繞人工智能武器是否應該獲准做出生死決定的辯論已經爆發。一些人認為美國軍方已經擁有這樣的武器。
Anduril首席執行官Palmer Luckey最近在X上指出,美國軍方長期以來一直在購買和使用自主武器系統,例如CIWS炮塔。
「國防部多年來一直在購買和使用自主武器系統。他們的使用(和出口!)是廣泛瞭解、嚴格定義,並且明確受到非自願遵守的規則監管,」Luckey表示。
但當TechCrunch問及五角大樓是否購買和操作完全自主的武器 - 即沒有人類參與的武器 - Plumb原則上拒絕了這個想法。
Plumb表示:「不,簡而言之。出於可靠性和倫理考慮,我們將始終讓人類參與使用武力的決定,這包括我們的武器系統。」
「自主」這個詞有些模棱兩可,已在整個科技行業引發爭議,關於何時自動系統 - 如人工智能自動編碼代理、自動駕駛汽車或自動開火武器 - 變得真正獨立的問題。
Plumb表示,自動系統獨立做出生死關頭決定的想法「太二分了」,現實要少「科幻化」。她提出五角大樓使用人工智能系統實際上是人與機器之間的合作,高級領導者在整個流程中都在做出積極決定。
「人們往往會認為這種情況就像在某個地方有機器人,然後計算機會輸出一張紙,人類只需對方框打勾,」Plumb表示。「那不是人機協作的運作方式,並且這不是使用這類人工智能系統的有效方式。」
五角大樓中的人工智能安全
與矽谷員工的軍方合作並不總是受到好評。去年,數十名亞馬遜和谷歌員工因抗議他們公司與以色列的軍事合同,其中包括代號「Project Nimbus」的雲計算交易而被解雇和逮捕。
相比之下,人工智能社區的反應相對較為溫和。一些人工智能研究者,如Anthropic的Evan Hubinger,表示在軍隊中使用人工智能是不可避免的,重要的是直接與軍方合作,確保他們做得對。
Hubinger在去年11月在在線論壇LessWrong上的一篇帖子中表示:「如果您認真對待AI的災難風險,美國政府是您需要與之互動的極其重要的行動者,只是嘗試讓美國政府遠離人工智能的使用並不是一種可行的策略。僅僅關注災難性風險並不足夠,您還必須防止政府以任何方式可能濫用您的模型。」