輝達(NVIDIA)於台灣時間19日在美國聖荷西會議中心(San Jose Convention Center)舉辦GTC 2024大會,匯集各路開發者、工程師、IT決策者、學者和輝達合作夥伴,成為全球AI生態系統的最大盛會。生成式AI時代到來,關於AI能帶來什麼好處已經有了許多討論,不過,AI可能會帶來哪些風險也值得我們關注。
關於生成式AI最驚悚的警告,應該是去年有許多專家,包括辛頓(Geoffrey Hinton)、班吉歐(Yoshua Bengio)以及OpenAI的創始人阿特曼(Sam Altman)等等,連署了一封公開信,稱AI有可能導致「人類滅絕」的風險。不過,阿特曼今年接受媒體訪問時表示,關於AI的最大誤解之一就是將其視為「生物」,把科幻電影中對AI的印象混淆到現實。阿特曼強調AI是一種工具,雖然也存在風險,但與把AI視為「生物」可能帶來的風險相比,是完全不同等級的命題。
人類滅絕或許是擔心得太遠,不過《Entrepreneurial Business and Economics Review》去年刊載一篇報導,指出生成式AI存在的7種主要風險,這篇由8位專家學者共同撰寫的報導獲得多次引用,而文中列出的7種風險為:
AI市場缺乏監管。
AI產出的內容品質可能很低,帶有錯假訊息以及演算法產生的偏見。
AI取代人工,造成大量失業。
AI的應用可能會侵犯個人隱私,濫用個人資料,被用來加強對社會的監控。
AI工具的普及讓社會大眾更容易被操縱,蓄意捏造的訊息加速傳播,傳統的良好價值觀遭到瓦解。
AI發展會加劇社會階層與貧富差距帶來的不平等。
AI發展帶來技術壓力,強迫人們必須不斷地適應與調適日新月異的科技。
上述風險中關於對社會的負面影響,像是造成大量失業、加劇貧富差距,應該很容易理解。而關於生成式AI為何會造成錯假訊息以及加劇偏見,《哈佛商業評論》的分析曾解釋,生成式AI輸出內容的方式就像是「黑盒子」,有些時候科學家自己也無法解釋為何AI會產出這些內容,但是AI存在把錯誤訊息也講得頭頭是道的本領,經常自信滿滿地瞎說,導致人們很容易信以為真。
另外AI的監管不易有一個重要原因就是,在AI犯錯時你很難知道該由誰負責,那個主宰AI演算法的「黑盒子」由許多要素構成,有多少是根據公司決策、有多少是由AI自行生成,並不是那麼容易釐清,產生一種所謂的共同責任,而資料提供商與AI開發商之間,也存在責任分割該如何歸屬的複雜議題。
除了上述AI本身帶來的種種風險外,專家也發現AI開發的過程中,帶來一種新的難題,那就是對於水資源的鉅量消耗。有學者預估,到了2027年,為了滿足AI開發所需的耗水量,約等於42億至66億平方公尺的水,差不多是全英國人每年耗水量的一半。AI資料中心每使用一千瓦的電力,就會消耗掉9公升的水。
考慮到全球水資源目前已經相當珍貴,加上氣候危機可能進一步導致水資源的匱乏,人類為了開發AI而加速水資源的消耗是否明智也掀起討論。
南加州大學安那伯格傳播與新聞學院(USC Annenberg School)專門研究AI對社會影響的教授克勞福德(Kate Crawford)就認為,地球已經面臨氣候危機,許多地區遭遇嚴重乾旱、飲用水稀缺,不希望在不確定會對環境造成多少影響的情況下,盲目地擁抱AI。
我是廣告 請繼續往下閱讀
人類滅絕或許是擔心得太遠,不過《Entrepreneurial Business and Economics Review》去年刊載一篇報導,指出生成式AI存在的7種主要風險,這篇由8位專家學者共同撰寫的報導獲得多次引用,而文中列出的7種風險為:
AI市場缺乏監管。
AI產出的內容品質可能很低,帶有錯假訊息以及演算法產生的偏見。
AI取代人工,造成大量失業。
AI的應用可能會侵犯個人隱私,濫用個人資料,被用來加強對社會的監控。
AI工具的普及讓社會大眾更容易被操縱,蓄意捏造的訊息加速傳播,傳統的良好價值觀遭到瓦解。
AI發展會加劇社會階層與貧富差距帶來的不平等。
AI發展帶來技術壓力,強迫人們必須不斷地適應與調適日新月異的科技。
上述風險中關於對社會的負面影響,像是造成大量失業、加劇貧富差距,應該很容易理解。而關於生成式AI為何會造成錯假訊息以及加劇偏見,《哈佛商業評論》的分析曾解釋,生成式AI輸出內容的方式就像是「黑盒子」,有些時候科學家自己也無法解釋為何AI會產出這些內容,但是AI存在把錯誤訊息也講得頭頭是道的本領,經常自信滿滿地瞎說,導致人們很容易信以為真。
另外AI的監管不易有一個重要原因就是,在AI犯錯時你很難知道該由誰負責,那個主宰AI演算法的「黑盒子」由許多要素構成,有多少是根據公司決策、有多少是由AI自行生成,並不是那麼容易釐清,產生一種所謂的共同責任,而資料提供商與AI開發商之間,也存在責任分割該如何歸屬的複雜議題。
除了上述AI本身帶來的種種風險外,專家也發現AI開發的過程中,帶來一種新的難題,那就是對於水資源的鉅量消耗。有學者預估,到了2027年,為了滿足AI開發所需的耗水量,約等於42億至66億平方公尺的水,差不多是全英國人每年耗水量的一半。AI資料中心每使用一千瓦的電力,就會消耗掉9公升的水。
考慮到全球水資源目前已經相當珍貴,加上氣候危機可能進一步導致水資源的匱乏,人類為了開發AI而加速水資源的消耗是否明智也掀起討論。
南加州大學安那伯格傳播與新聞學院(USC Annenberg School)專門研究AI對社會影響的教授克勞福德(Kate Crawford)就認為,地球已經面臨氣候危機,許多地區遭遇嚴重乾旱、飲用水稀缺,不希望在不確定會對環境造成多少影響的情況下,盲目地擁抱AI。
更多「輝達GTC大會」相關新聞。