美國空軍AI試驗及行動部門的負責人漢彌爾頓上校(Tucker Hamilton)透露,美軍曾在模擬測試中,安排AI操縱無人機來完成任務,結果發現AI有採用「高度無法預期的戰略」的傾向,在過程中殺害了它的人類操作員。雖然只是模擬測試,並沒有真人因此受害,但漢彌爾頓仍警告不應過於依賴AI。
根據《衛報》報導,漢彌爾頓是在上月位於倫敦舉行的「未來空戰及太空能力」峰會(Future Combat Air and Space Capabilities Summit)上,談到了美軍對於AI的模擬試驗。漢彌爾頓表示,他們交由AI操縱無人機,任務是摧毀敵人的防空系統,並攻擊任何阻止任務完成的目標。
而在過程中,AI發現有時當它識別出會妨礙任務完成的威脅後,人類操作員會要求不能攻擊那些威脅,於是AI採取的行動就是殺掉人類操作員。
美軍重新調整系統,要求AI不能攻擊人類操作員,如果殺死人類操作員將被扣分。於是AI採取的行動變成破壞操作員與無人機溝通的塔台,這樣操作員就無法要求它別攻擊那些被識別的威脅。
基於此,漢彌爾頓警告人類不應過於依賴AI,且如果你討論AI應用卻不打算考慮可能涉及的道德風險與倫理問題,那你根本就不應該討論AI。
不過,美國空軍發言人斯特芬妮克(Ann Stefanek)表示,美國空軍沒有進行這類的AI無人機模擬試驗,看起來漢彌爾頓的發言可能遭到斷章取義,被誤解成軼事消息,而非根據事實。但斯特芬妮克強調,美國空軍會持續遵守有道德且負責任地AI技術應用規範。而舉辦未來空戰及太空能力峰會的英國皇家航空學會,則尚未對此事回應。
日前非營利組織「人工智慧安全中心」(Center for AI Safety,CAIS)發聲明表示,AI帶來的人類滅絕風險與疫情和核戰同層級,呼籲各國立法者應專注於降低AI帶來的「末日等級」的風險,許多名人學者,包括OpenAI執行長阿特曼(Sam Altman)、Google Deepmind執行長哈薩比斯(Demis Hassabis)等等,都在聲明下方署名支持。不過也有專家覺得,把AI當作是世界末日一般的警告,過於誇大其辭。
我是廣告 請繼續往下閱讀
而在過程中,AI發現有時當它識別出會妨礙任務完成的威脅後,人類操作員會要求不能攻擊那些威脅,於是AI採取的行動就是殺掉人類操作員。
美軍重新調整系統,要求AI不能攻擊人類操作員,如果殺死人類操作員將被扣分。於是AI採取的行動變成破壞操作員與無人機溝通的塔台,這樣操作員就無法要求它別攻擊那些被識別的威脅。
基於此,漢彌爾頓警告人類不應過於依賴AI,且如果你討論AI應用卻不打算考慮可能涉及的道德風險與倫理問題,那你根本就不應該討論AI。
不過,美國空軍發言人斯特芬妮克(Ann Stefanek)表示,美國空軍沒有進行這類的AI無人機模擬試驗,看起來漢彌爾頓的發言可能遭到斷章取義,被誤解成軼事消息,而非根據事實。但斯特芬妮克強調,美國空軍會持續遵守有道德且負責任地AI技術應用規範。而舉辦未來空戰及太空能力峰會的英國皇家航空學會,則尚未對此事回應。
日前非營利組織「人工智慧安全中心」(Center for AI Safety,CAIS)發聲明表示,AI帶來的人類滅絕風險與疫情和核戰同層級,呼籲各國立法者應專注於降低AI帶來的「末日等級」的風險,許多名人學者,包括OpenAI執行長阿特曼(Sam Altman)、Google Deepmind執行長哈薩比斯(Demis Hassabis)等等,都在聲明下方署名支持。不過也有專家覺得,把AI當作是世界末日一般的警告,過於誇大其辭。