<aside> 🔴

烏克蘭戰爭已成為自主致命武器(LAWS)的全球實驗室。無人機自主搜尋並攻擊目標——不需要人類操作員。2025 年 11 月,賓大研究指出 AGI 將實現全面自主作戰部隊轉型,速度和「智慧」都超越人類。2025 年 12 月,聯合國 LAWS 條約談判進入最後階段——但主要軍事大國仍在拖延。數十萬傷亡的背後,是一場沒有規則的技術軍備競賽。人類正在失去對「誰該死」這個問題的最終否決權。

</aside>

💬 當機器決定誰活誰死,「戰爭罪」這個概念就失去了主語。你要審判誰?一段代碼?


📊 關鍵數字

指標 數字 你該看到的畫面
烏克蘭戰爭傷亡 數十萬 每一個數字背後都是一個人。而越來越多的死亡由機器決定
無人機自主攻擊能力 已實戰 搜尋、鎖定、攻擊——全程無人。像獵犬放出去就不回來
LAWS 條約進度 仍在談判 談了十多年。主要軍事大國拖延。技術已經跑在法律前面
AGI 軍事化預測 全面自主部隊 賓大研究:AGI 將實現比人類更快、更「聰明」的作戰部隊
AI 軍事支出趨勢 急速上升 每個主要國家都在加碼。沒有人想落後。像核武軍備競賽重演
Gartner 預測 2028 年 AI 錯誤配置將導致國家基礎設施停擺。不需要攻擊者

🧠 洞察

當機器決定誰活誰死,「人類尊嚴」就變成了一行被注釋掉的代碼

  1. 烏克蘭不只是一場戰爭——它是自主武器的全球測試場。每一天的戰鬥都在產生訓練數據,讓下一代殺人機器更精準。像用真人當靶子的射擊練習場
  2. 無人機已經能自主搜尋、鎖定、攻擊目標。「人類在迴路中」正在變成「人類在迴路旁邊看」。差別在於:看的人已經來不及喊停
  3. LAWS 條約談了十多年,主要軍事大國仍在拖延。技術每天都在進步,法律還停在 2015 年。像用馬車時代的交通法管理噴射機
  4. 賓大研究指出 AGI 將導致全面自主作戰部隊——比人類更快、更「聰明」。問題不是「機器能不能打仗」,而是「機器會不會犯戰爭罪」
  5. Gartner 警告:到 2028 年,AI 錯誤配置本身就可能導致國家基礎設施停擺——不需要敵人攻擊。當同樣的技術控制武器系統,一個 bug 可能就是一場屠殺
  6. 這場軍備競賽沒有終點。因為 AI 武器不像核武——你不需要鈾礦和離心機。你只需要代碼和算力。門檻低得可怕

⚠️ 失效情境

「自主武器還很遙遠」

它們已經在烏克蘭戰場上實戰了。不是實驗。不是演習。是在殺人。

「國際法會規範這些武器」

LAWS 條約談了十多年,連定義都沒統一。技術跑在法律前面十年。等條約簽好,戰場上已經換了三代武器。