包含台灣在內,明年有許多國家都將舉行大選,但在近年人工智慧(AI)迅速發展的背景下,屆時是否會假消息滿天飛,引起許多人擔憂。不過英國期刊《經濟學人》指出,雖然AI使得虛假訊息更容易產生,但可能不如人們想的重要。

我是廣告 請繼續往下閱讀
由美國人工智慧研究實驗室OpenAI推出的聊天機器人ChatGPT在去年問世後,隨即掀起熱潮,更被視為人工智慧重大突破。生成式人工智慧(generative AI)發展快速,輸出複雜的文章、並配合文本創造圖像,雖然加大方便程度,但明年美國、英國、印度、印尼、墨西哥、台灣等多個國家即將舉行選舉,AI的迅速發展也使得人們擔憂,在選舉前,虛假訊息宣傳活動可能會加劇。

不過《經濟學人》指出,早在ChatGPT等生成式AI工具出現前,假訊息就已經成為民主國家面臨的問題,像是美國前總統川普(Donald Trump)在2021年使用傳統手段傳播「美國總統選舉被操縱」的想法,引發國會山莊暴動;印度執政黨「印度人民黨」(BJP)活動人士也曾透過通訊應用程式WhatsApp散播謠言;中共透過看似合法的新聞機構向台灣傳播論據,而這些都是在不使用生成式AI工具的情況下完成。

不過AI的確有可能會使虛假訊息「進化」。到了2024年,大型語言模型可能會使得虛假訊息的數量出現變化,而當假訊息數量增為上千倍甚至10萬倍,就可能會說服人們做出不同投票決定;另外,在生成式AI的幫助下,虛假訊息的品質也會出現變化,虛假聲音、照片、影片被揭穿前,超現實的「深度偽造」(deepfakes)可能影響選民;第三個可能出現的變化則是精準投放(microtargeting),選民可能會被量身打造的大規模宣傳淹沒,宣傳機器人網絡可能比現有的虛假訊息運作更難被發現。

《經濟學人》認為,雖然這的確會使人擔憂,但其實選民很難被說服,尤其是在由誰擔任總統等政治議題上。就連美國價值數十億美元的選舉產業利用人類說服選民,也只能讓他們的行為產生微小的改變。

即使AI增強策略被證明有效,但被許多相關方採用之後,這些影響力操作的累積效應將會讓社群網路變得更不和諧及無法使用,很難證明不信任會轉化為一方比另一方更具有系統優勢。

錯誤訊息傳播的社群媒體平台及人工智慧公司表示正關注風險,美國人工智慧研究實驗室OpenAI表示,它將監控使用情況,嘗試檢測政治影響操作。全球搜尋引擎龍頭谷歌(Google)母公司字母公司(Alphabet)、全球社群媒體龍頭臉書(Facebook)母公司Meta禁止在政治廣告使用受操縱的媒體,並稱將會迅速回應深偽問題,其他公司也嘗試制定技術標準來確定真實圖像、影片的來源。

《經濟學人》指出,儘管生成式AI破壞民主的潛力引發注意,但恐慌毫無必要,畢竟在技術進步前,世人就已有相互傳播具有破壞力可怕想法的能力。