在生成式AI應用的熱潮下,ChatGPT立即在短時間內,推出了ChatGPT Plus版本,迅速讓AI進入營利變現時代,台灣使用者已經可以花每月20元美元,取得更高的回應速度。不過,KPMG安侯企業管理公司董事總經理謝昀澤今(13)日指出,生成式AI不只在拚演算法、功能炫技,各大廠短期的決戰重點,還是在「正確性」與「可靠性」,如何判斷答案是「正確」且「適用」的機器人,將會是使用者的最大挑戰,而影響未來生成式AI風險,有3大需要被嚴格治理的「暗黑情境」危機。
目前新一代生成式AI大戰第一回合,Google緊急推出Bard對話機器人應戰,但答錯太陽系外行星第一張照片是誰拍?落得股價大跌。謝昀澤解釋,Google具備有強大的AI演算法及雲端運算平台的能量,但跌在「照片正確」這個環節上,其實不是第一次。早在2015年時,Google因為AI演算法出包,將黑人照片辨識為大猩猩,而落入種族歧視的爭議風暴中許久。幾乎在Bard上埸的同時間,OpenAI似乎立即觀察到,ChatGPT的反應速度,遠遠追不上使用者的熱情,於是推出了付費訂閱版,以降低因使用者暴增而等待或終止回應的時間。
即使ChatGPT快速導入了新的訂閱模式,但許多付費使用者,目前仍常遇到服務滿載的卡頓狀況。謝昀澤認為,「答案有感的機器人,會取代只是歷史讀稿的機器人」、「反應快速的機器人,會取代頁面自轉圈圈的機器人」,但是如何判斷答案是「正確」且「適用」的機器人,將會是使用者的最大挑戰。
謝昀澤分析,各大廠生成式人工智慧大對決的後續觀察重點,除了在採用訂閱營利或廣告營利?如何以API創造生態圈?如何與瀏覽器或辦公室軟體整合?等「商業模式」比拚外,誰能持續稱霸AI進化世界的關鍵,還是在有沒有足夠的AI「科技治理」能力上。而影響未來生成式AI風險,需要被嚴格治理的「暗黑情境」,包含「更迷離的深假(Deepfake)」、「更智慧的駭客」及「更暴露的使用者隱私」等危機。
以「深假技術」為例,目前已經可以做到,使用甲的臉孔,搭配乙的身材與動作,自然的用丙的嘴型說出的變造的內容。然而,生成式AI技術大躍進,就像是雙面刃,如果駭客或是犯罪組織使用相同的技術,將會造成重大的損失。
他舉例,駭客用ChatGPT針對不同企業,產生數萬封釣魚郵件後,再運用偽造聲紋假冒財務長致電財務人員進行匯款;或駭客用生成式AI的強大分析與歸納功能,找出藏於企業內部未曾發現的弱點,藉此進行網路進階攻擊或機密竊取。同時,因為生成式AI也具備程式撰寫的優異能力,惡意程式開發門檻將大幅降低,連不會寫程式的人都可能當駭客等危機。
雖然各AI系統都訂有使用規則與迴避有害內容的功能,但目前還是有許多控管措施的漏洞,都可能被有心人士繞過。安侯企業管理公司執行副總經理林大馗預測,如果生成式AI連動既有的深假技術威脅,可能導致風險加乘,未來AI所創造的假文章、假程式、假郵件、假影片將大量湧現且難以識別,進而影響到生成式AI的正確性。企業資安除了標配防火牆與防毒軟體外,可能還需透過「人工加工人智慧」的打假工具及內容確認工程師等協作,才能有效降低AI所帶來的資安風險。
林大馗建議,在新興的風險治理工具尚未成熟前,一般企業成可建立「智慧型主動式」的防護能量,例如在公開影片中添加專屬的雜湊值或安全憑證,或利用深假技術尚未能完整學習受複製對象側面的技術缺陷,於視訊會議中請客戶往左或右轉頭90度並維持一小段時間等。如果是深假影片,可能會有人臉閃爍的情況,這除確保來源的真實性並防止駭客暗中蒐集與惡意竄改,更可避免駭客用以對其他消費者進行欺詐。
此外,也可擴大運用「MFA多因子認證」讓消費者透過2種以上的認證機制,才能取得授權,如再搭配實體安全金鑰等控制技術與避免單一持有設備(像是手機)取得所有認證資訊等方式,應可有效降低「深假技術」與「更智慧的駭客」帶來的威脅。
為了降低駭客攻擊的的風險及提升使用者隱私安全性,企業亦可參考零信任(Zero Trust)資訊架構,避免以一次驗證後即可長時間與完全取用所有服務的傳統做法,改採依據不同的服務風險等級、搭配多次且不同方式驗證,降低單一識別方法失效的災損程度,確保適當與匹配的風險控管。
針對「深假進化」危機,林大馗也提醒網路使用者,開始要建立「眼見不為憑」的警覺,一般民眾必須理解,過去習慣的「有圖有真相」有可能會變成「看片都上當」。網路收到影片時,應該先收起對主題、內容的好奇心、也要杜絕「先睹為快」的心態、更要盡量避免「呷好道相報」的習慣,除了選擇安全可靠的科技應用廠商或服務外,更應該避免於網路、社群媒體上過度揭露個人資料,對個人行動裝置的防護認知也要強化。
我是廣告 請繼續往下閱讀
即使ChatGPT快速導入了新的訂閱模式,但許多付費使用者,目前仍常遇到服務滿載的卡頓狀況。謝昀澤認為,「答案有感的機器人,會取代只是歷史讀稿的機器人」、「反應快速的機器人,會取代頁面自轉圈圈的機器人」,但是如何判斷答案是「正確」且「適用」的機器人,將會是使用者的最大挑戰。
謝昀澤分析,各大廠生成式人工智慧大對決的後續觀察重點,除了在採用訂閱營利或廣告營利?如何以API創造生態圈?如何與瀏覽器或辦公室軟體整合?等「商業模式」比拚外,誰能持續稱霸AI進化世界的關鍵,還是在有沒有足夠的AI「科技治理」能力上。而影響未來生成式AI風險,需要被嚴格治理的「暗黑情境」,包含「更迷離的深假(Deepfake)」、「更智慧的駭客」及「更暴露的使用者隱私」等危機。
以「深假技術」為例,目前已經可以做到,使用甲的臉孔,搭配乙的身材與動作,自然的用丙的嘴型說出的變造的內容。然而,生成式AI技術大躍進,就像是雙面刃,如果駭客或是犯罪組織使用相同的技術,將會造成重大的損失。
他舉例,駭客用ChatGPT針對不同企業,產生數萬封釣魚郵件後,再運用偽造聲紋假冒財務長致電財務人員進行匯款;或駭客用生成式AI的強大分析與歸納功能,找出藏於企業內部未曾發現的弱點,藉此進行網路進階攻擊或機密竊取。同時,因為生成式AI也具備程式撰寫的優異能力,惡意程式開發門檻將大幅降低,連不會寫程式的人都可能當駭客等危機。
雖然各AI系統都訂有使用規則與迴避有害內容的功能,但目前還是有許多控管措施的漏洞,都可能被有心人士繞過。安侯企業管理公司執行副總經理林大馗預測,如果生成式AI連動既有的深假技術威脅,可能導致風險加乘,未來AI所創造的假文章、假程式、假郵件、假影片將大量湧現且難以識別,進而影響到生成式AI的正確性。企業資安除了標配防火牆與防毒軟體外,可能還需透過「人工加工人智慧」的打假工具及內容確認工程師等協作,才能有效降低AI所帶來的資安風險。
林大馗建議,在新興的風險治理工具尚未成熟前,一般企業成可建立「智慧型主動式」的防護能量,例如在公開影片中添加專屬的雜湊值或安全憑證,或利用深假技術尚未能完整學習受複製對象側面的技術缺陷,於視訊會議中請客戶往左或右轉頭90度並維持一小段時間等。如果是深假影片,可能會有人臉閃爍的情況,這除確保來源的真實性並防止駭客暗中蒐集與惡意竄改,更可避免駭客用以對其他消費者進行欺詐。
此外,也可擴大運用「MFA多因子認證」讓消費者透過2種以上的認證機制,才能取得授權,如再搭配實體安全金鑰等控制技術與避免單一持有設備(像是手機)取得所有認證資訊等方式,應可有效降低「深假技術」與「更智慧的駭客」帶來的威脅。
為了降低駭客攻擊的的風險及提升使用者隱私安全性,企業亦可參考零信任(Zero Trust)資訊架構,避免以一次驗證後即可長時間與完全取用所有服務的傳統做法,改採依據不同的服務風險等級、搭配多次且不同方式驗證,降低單一識別方法失效的災損程度,確保適當與匹配的風險控管。
針對「深假進化」危機,林大馗也提醒網路使用者,開始要建立「眼見不為憑」的警覺,一般民眾必須理解,過去習慣的「有圖有真相」有可能會變成「看片都上當」。網路收到影片時,應該先收起對主題、內容的好奇心、也要杜絕「先睹為快」的心態、更要盡量避免「呷好道相報」的習慣,除了選擇安全可靠的科技應用廠商或服務外,更應該避免於網路、社群媒體上過度揭露個人資料,對個人行動裝置的防護認知也要強化。