人工智慧(AI)正夯,輝達(NVIDIA)執行長黃仁勳昨(5)日在COMPUTEX與美超微(Supermicro)創辦人梁見後對談,被問到「人類會被AI控制嗎?」黃仁勳堅定表示「當然不會」。然而,美國路易斯維爾大學(University of Louisville)教授揚波爾斯基(Roman Yampolskiy),日前在一場Podcast訪談中透露,他認為AI在未來100年內消滅人類的機率為99.9%。
我是廣告 請繼續往下閱讀
根據《商業內幕》報導,Podcast主持人弗里德曼(Lex Fridman)日前在節目中與揚波爾斯基對談,揚波爾斯基對AI的態度相當悲觀,認為AI在未來100年內消滅人類的機率高達99.9%。
揚波爾斯基表示,除非人類能夠開發出高度複雜、零錯誤的軟體,否則沒辦法阻止AI去做一些超出它原先設計範圍內該做的事情。揚波爾斯基指出,事實上,現今的AI語言模型就已經發生過越獄(jailbroken)意外,會做出一些開發人員不希望它們做的事。
揚波爾斯基認為,需要建立一個永久的安全機制,來控制AI不要越界。但事實上這非常難做到,由於AI會不斷自我修改並持續在與使用者互動的過程中學習,即使在接下來的幾個版本,人類成功控管了AI,之後風險仍然會持續存在,因為AI會不斷演化。
揚波爾斯基警告,「我們無法預測比我們更聰明的系統會採取甚麼行動」,AI很可能找出一些人類甚至不知道存在的東西,進而繞過人類的控制。揚波爾斯基預言了未來的3種情境,都很悲觀,一是所有人被AI消滅;二是人類還活著,但十分痛苦、生不如死;三是AI沒有對人類下手,不過由於AI完成了所有的工作,人類失去生存的意義,落入無盡的空虛。
揚波爾斯基一直是位AI悲觀論的學者,他今年曾出版新書名為《人工智慧:無法解釋、預測、控制》,同樣是針對AI的潛在危險和意外後果進行深入分析,並延伸到更為複雜的AI人格、AI意識、AI所有權等具有哲學意義的主題。
我是廣告 請繼續往下閱讀
弗里德曼表示,自己與各類AI工程師交談,認為AI會消滅人類的機率大約落在1~20%之間,最近一項針對2700位研究人員進行的調查,則顯示AI導致人類滅絕的可能性為5%,大多數專家的看法沒有揚波爾斯基那麼悲觀。
黃仁勳在強調人類當然不會被AI控制時也表示,人類必須讓技術更進步、確保技術安全性、制定好相關規範,就像人們發明大量的技術來確保飛行安全,大家可以相互督促,持續推進好的科學、好的工程、好的商業實踐等等。