新聞分析∣人工智能界為何對“殺手機器人”說不

來源︰新華社責任編輯︰岳修宇
2018-04-09 14:42

新聞分析︰人工智能界為何對“殺手機器人”說不

聯合國《特定常規武器公約》政府專家小組9日在瑞士日內瓦召開會議,預定討論致命自主武器系統研發,也就是常說的“殺手機器人”可能帶來的影響。

50多名世界知名人工智能和機器人研究人員4日宣布,將聯合抵制韓國科學技術院,抗議該機構研發人工智能武器的計劃。

與此同時,一封公開信已在美國谷歌公司內部流傳數周,超過3000名谷歌員工簽名要求公司退出一項美國五角大樓人工智能軍事計劃。

人工智能迅速發展給社會各個領域帶來深遠影響,對軍事作戰系統研發也帶來全新理念。然而,人工智能界的專家學者及防務分析人士認為,機器人暴動僅是科幻小說式的終極噩夢,軍事機器人革命帶來的倫理、法律及政策等問題,尤其是自主武器能否自行判斷殺敵與否,才是人們亟須擔憂和討論的現實問題。

大多數專家學者一直認為,使用致命武器時,人應當是負責啟動的關鍵要素。對什麼樣的人工控制才是最適宜的討論還未結束,相關的政策制定又已被人工智能技術的飛速發展甩在身後。隨著具有認知能力人工智能系統的出現,更復雜的問題出現了。

新美國基金會研究人員、防務政策分析人士辛格在其著作《連線戰爭︰21世紀機器人革命和沖突》中指出,地緣政治、知識前沿領域不斷前進的動力甚至是追求利益的科技企業,都是人工智能發展不可阻擋的力量。簡單來說,大部分人現在最感到恐懼的是該不該讓能夠“思考”的人工智能系統決定是否殺人。

新美國安全中心技術和國家安全項目主管沙雷表示,自主武器系統可能因代碼問題或黑客攻擊而失靈,機器人攻擊人類部隊,人類無法作出反應或局部局勢迅速升級的情況都有可能發生。自主武器系統的可靠性難以測試,會“思考”的機器系統可能以人類操控者從未想象到的方式行事。

美國國防部前副部長米勒認為,自主武器系統在戰事激烈的地區執行任務,讓機器全權負責的誘惑可能會難以抵制,技術上的可能總是讓人們作出利于形勢的選擇。

對于自主武器系統,人工智能界的專家學者頻頻說“不”,拒絕進行相關領域的研發。例如,韓國科學技術院研制的機器人曾經贏得2015年美國國防部高級研究項目局機器人挑戰賽的冠軍。據《韓國時報》報道,韓國科學技術院和軍工企業韓華系統合作成立研發中心,目的就是為了研發可以“無需人工控制就能搜尋並清除目標”的人工智能武器。

對此,50多名頂尖人工智能研究人員在公開信中說,他們將抵制和韓國科學技術院的任何合作,直到該機構宣布不會研發任何缺乏人類控制的自主武器。韓國科學技術院隨後發表聲明說,他們沒有研發“致命自動武器系統或殺手機器人”的計劃。

美國五角大樓“梅文計劃”始于2017年,旨在找到加速軍方應用最新人工智能技術的方式。盡管五角大樓和谷歌都表示,谷歌的產品不會創造出無需人類操作者就能開火的自主武器系統,但谷歌員工在公開信中說,參與“梅文計劃”將對谷歌的品牌和人才吸引力造成不可挽回的傷害,谷歌不應卷入戰爭,谷歌及其合約商永遠不應該發展戰爭科技。

在2017年人工智能國際會議上,有 谷“鋼鐵俠”之稱的馬斯克、隻果聯合創始人之一沃茲尼亞克、研發“阿爾法圍棋”的深度思維公司哈薩比斯等人,都曾簽署公開信,呼吁聯合國應像禁止生化武器一樣,禁止在戰爭中使用致命的自主武器和“殺手機器人”。(新華社北京4月9日電)

輕觸這里,加載下一頁