美國OpenAI公司推出的人工智慧(AI)聊天機器人ChatGPT,在去年底橫空出世後,隨即在全球各地引爆熱潮,關於AI的各類應用成為各行各業最夯話題。不過有上千位專家簽署公開信,呼籲所有AI實驗室立即暫停研發強大AI系統至少6個月,因為AI可能會對人類社會帶來風險。

我是廣告 請繼續往下閱讀
這封公開信是由未來生命研究所 (Future of Life Institute)發布,隨後獲得包括馬斯克(Elon Musk)在內的1100多位專家簽名表達支持。除了馬斯克之外,其他比較知名的專家包括 Stability AI執行長莫斯塔克(Emad Mostaque)、圖靈獎得主班吉歐(Yoshua Bengio)、AI權威學者羅素(Stuart Russell)等等。

公開信中提到,高級AI應用很可能是地球生命史的重大時刻,應該獲得相對應規模的重視管理,但目前卻成為各科技實驗室的軍備競賽,大家不斷升級部署更強大的AI系統,卻沒有人、包括實驗室在內,能理解或預測這些AI將對人類社會帶來什麼風險。

公開信強調,「只有當我們確信AI的影響是積極的,並且AI的風險是可控的時候,才應該開發強大的人工智能系統」。公開信呼籲立即暫停對所有比GPT-4更強大的AI系統的研發,為期至少6個月。並在這期間,由專家研擬出AI開發的共享安全協議,且讓研究人員與政策制定者合作,達成全面有效的監管。

同樣有簽署這封公開信的紐約大學名譽教授馬庫斯(Gary Marcus)表示,這封信並不完美,但精神是正確的,我們需要放慢腳步,直到我們更好地理解其後果。馬庫斯指出,現在那些科技鉅頭對他們正在做的事情越來越保密,這使得社會越來越難準備面對可能的衝擊,這樣的狀況應該要有所改變。