知名聊天機器人ChartGPT的開發商OpenAI,傳出解散成立還不滿1年的人工智能(AI)長遠風險評估工作組(Superalignment team)。

我是廣告 請繼續往下閱讀
根據美國財經媒體《CNBC》報導,該工作組共同主管、OpenAI共同創辦人蘇茨克維(Ilya Sutskever)以及萊克(Jan Leike)本週宣布離開後,OpenAI決定解散該工作組,至於成員則被調往其他部門。

蘇茨克維批評OpenAI的安全文化倒退,萊克也宣稱與公司管理層理念不同,雙方對核心優先事項的觀點存在分歧,最終達到臨界點,所以選擇分道揚鏢。

萊克並直言,他認為公司應該更關注安全、監控、準備和社會影響等層面,好讓OpenAI成為「安全第一的AGI公司」,因為建造比人類更聰明的機器,本質上就是一項危險的工作,但過去幾年對安全文化和流程的要求,已經讓位給閃亮的產品、推動產品銷售的目標。

特斯拉執行長馬斯克(Elon Musk)則針對OpenAI解散長期人工智能風險團隊一事,在X平台上發表評價,打下:「這顯示OpenAI並沒有把安全視為首要任務。」

OpenAI是在去年宣布成立該工作組,專注於科學和技術突破,盼引導和控制有望比人類更聰明的AI系統,確保AI科技的長遠發展「利大於弊」。