評論:禁止「殺手機器人」
2018年8月28日(德國之聲中文網)"我們認為,谷歌不應參與戰爭生意",今年早些時候數千名谷歌員工簽署的抗議信在開頭這樣寫道。這是前所未有的:員工要求首席執行官皮蔡(Sundar Pichai,在中國被稱為"劈柴哥"),立刻停止與五角大樓合作開展"Maven"項目,該項目利用人工智慧解讀影片圖像,旨在提高無人機打擊的精準度。
美軍為何對谷歌、微軟這些軟體巨頭的工作如此感興趣呢?因為他們自己無法編出這種高品質的程序,但卻要一定擁有之。這些算法搭建出來的武器,可以自行識別目標並且對其進行攻擊。未來的戰爭,將由少量軍人和大量智慧型武器進行。人工智慧的成就早已經有針對性地用於軍事目的了。
人工智慧帶來軍事革命
谷歌員工的抵製做法是有道理的。在信件中,他們涉及的是我們這個時代的一個核心倫理問題:電腦的學習能力越來越強,模仿人腦的準確度越來越高。這蘊藏著巨大的機會,但也包含著巨大的風險。世界主要軍事力量正貪婪地將手伸向數據和算法,以便喂養他們的人工智慧武器。
結果是:一旦發出去的導彈、無人機、魚雷,就不再受人類的控制了。它們在數天、數周長的時間裡自行跟蹤目標,然而選擇所謂的最佳時間將目標消滅。不再有將士給出最後的開火命令,這種半自動(武器)系統現在已經投入了使用。
這很成問題。有關生死的決定永遠不應單獨交到一台機器手中。與士兵不同的是,一個機器人不能區分作戰者和平民;不懂國際法,也無法依據道德而行動。而且,這樣的武器太容易遭到獨裁者們的濫用,用來擺脫令人不快的批評者。這些武器可以逃避軍備控制,也可能落入恐怖分子手中。
時間不多了
因此,禁止自主武器系統迫在眉睫。目前在日內瓦舉行的聯合國會議就這個問題進行談判是一件好事。然而令人擔憂的是,談判可能無果而終。這裡採取的是一致通過的原則,只要對於自主武器的定義還存在爭議、只要像美國這樣的國家繼續鼓吹這類武器的優勢,就無法達成共識。像德國呼籲的那種不具約束力的政治聲明,也於事無補。留給定製規則的時間不多了,國際社會不應該白白讓時間流逝於指縫間。
德國之聲致力於為您提供客觀中立的新聞報導,以及展現多種角度的評論分析。文中評論及分析僅代表作者或專家個人立場。