(中央社巴黎26日綜合外電報導)隨人工智慧(AI)崛起,各界紛紛警告AI恐對人類生存構成威脅,必須在為時已晚前加以管束。法新社分析4個恐危及人類的原因,但專家認為,多數都仍是存在科幻小說裡的情節。
我是廣告 請繼續往下閱讀
●迴紋針遊戲末日寓言
多數人工智慧災難劇本都源自同一個起因,也就是未來機器的能力將超越人類,因而脫離人類掌控並且拒絕關機。
人工智慧研究先驅班吉歐(Yoshua Bengio)6月在一場活動中表示:「一旦我們擁有的機器具備自我保護的目標,我們麻煩就大了。」
不過,由於這樣的機器還未問世,關於它們如何毀滅人類的想像,仍然只存在於哲學和科幻小說裡。
哲學家波斯特魯姆(Nick Bostrom)曾寫過一篇和「智慧爆炸」有關的文章,他提到,當超級智慧機器開始設計自己的機器時,就有可能發生這種情況。
他藉由迴紋針工廠裡超級人工智慧的故事來說明這個想法,這個人工智慧為了達到「盡可能生產出最多迴紋針」的目標,它「首先將地球,然後將愈來愈大的可觀測宇宙的資源都用來生產迴紋針」。
●出現魔鬼終結者毀滅人類?
如果超級智能機器要毀滅人類,它們肯定需要實體形態,就像電影「魔鬼終結者」(The Terminator)中,男主角阿諾史瓦辛格(Arnold Schwarzenegger)扮演的紅眼生化機器人,被未來的人工智慧派來毀滅人類一樣。
不過,加拿大滑鐵盧大學(Waterloo University)的機器人專家多滕漢(Kerstin Dautenhahn)淡化了這樣的擔憂。
她告訴法新社,人工智慧不太可能賦予機器更高的推理能力,也不太可能令它們產生殺死所有人類的慾望,儘管她坦承工程師可以利用人工智慧做壞事,但「機器人並不邪惡」。
●製造出更致命化學品危及人類存亡?
在想像當中,「壞人」可能利用人工智慧製造毒素或新病毒,並釋放到世界上危及人類存亡。
有個科學家團隊過去利用人工智慧協助開發新藥,他們進行了一項實驗,也就是稍稍修改人工智慧來尋找有害分子。
據「自然機器智慧」(Nature Machine Intelligence)期刊報導,這個團隊在6小時內成功生成約4萬種潛在毒劑。
柏林赫爾提學院(Hertie School)人工智慧專家布萊森(Joanna Bryson)表示,她能夠想像有人能找出一種更快傳播炭疽病這類毒物的方法,「但這不是生存威脅,這只是一種可怕又糟糕的武器」。
●物種被超越
在好萊塢(Hollywood)影視作品準則當中,劃時代的災難必須是突然、巨大且戲劇性的,但假如人類的滅絕是緩慢、安靜且充滿不確定性的呢?
哲學家普萊斯(Huw Price)在劍橋大學(Cambridge University)「存在風險研究中心」(Centre for the Study of Existential Risk)的宣傳影片中表示:「在最淒涼的結局之中,我們的物種可能會因沒有後代而走向滅亡。」
我是廣告 請繼續往下閱讀
但他也提過「不那麼淒涼的可能性」,也就是透過先進技術對人類進行強化,讓人類得以活得更久,「純粹的生物物種最終會走向滅絕,因為屆時不會再有沒接觸過這項技術的人類存在」。
英國物理學家霍金(Stephen Hawking)2014年曾表示,最終我們的物種將不再能夠與人工智慧機器競爭,他告訴英國廣播公司(BBC),屆時可能「代表人類末日的到來」。(譯者:張茗喧/核稿:劉淑琴)1120627