刻板印象是對一件人事物的既定偏見,形成原因有很多,主要在於接收到的資訊是否夠全面。位於美國加州舊金山的「Midjourney」實驗室,所開發的同名人工智慧程式,在本次巴黎奧運,被要求生成40國奧運代表隊的圖像時,呈現的結果令人咋舌,包含將澳洲隊變成一群無尾熊+袋鼠的生物,希臘隊則穿著如同古代斯巴達戰士的怪異盔甲,埃及代表隊的服裝看上去則與法老有八成相似,顯示現階段技術還有很多進步空間。
根據《每日郵報》報導,澳洲伊迪斯科文大學(Edith Cowan University)的研究人員,要求Midjourney生成40國奧運代表隊的圖像,結果顯示AI訓練資料庫存在多項偏見,涵蓋性別、事件、文化和宗教。 比如男性出現的次數是女性的5倍,在40張圖片中,82%是男性,僅有17%是女性,烏克蘭、土耳其的隊伍甚至通通只呈現男性。
研究人員還發現了一些明顯的事件偏差,比如,荷蘭隊一概被描繪為自行車手,加拿大隊被描繪成曲棍球員,阿根廷隊則被描繪為足球員,對於印度隊的偏見主要是「眉心紅記」,所有圖中的印度隊員都有畫。研究人員認為,這顯示AI生成過於專注在單一的宗教習俗,而忽略了印度境內的宗教多樣性。
甚至不同隊伍的運動員,臉上的表情也有很大差異,在該AI程式生成的圖片中,韓國隊和中國隊表情嚴肅,愛爾蘭隊、紐西蘭隊則面帶親切的微笑。
伊迪斯科文大學的教授鍾凱莉(Kelly Choong ,音譯)指出,AI的偏見往往是被人類本身的偏見驅動,缺乏批判性思維和評估,從而導致歧視等疑慮,除了希望開發人員能改進演算法,減少此類偏差,也應培養使用者與AI共存,同時又挑戰其輸出能力。
我是廣告 請繼續往下閱讀
研究人員還發現了一些明顯的事件偏差,比如,荷蘭隊一概被描繪為自行車手,加拿大隊被描繪成曲棍球員,阿根廷隊則被描繪為足球員,對於印度隊的偏見主要是「眉心紅記」,所有圖中的印度隊員都有畫。研究人員認為,這顯示AI生成過於專注在單一的宗教習俗,而忽略了印度境內的宗教多樣性。
甚至不同隊伍的運動員,臉上的表情也有很大差異,在該AI程式生成的圖片中,韓國隊和中國隊表情嚴肅,愛爾蘭隊、紐西蘭隊則面帶親切的微笑。
伊迪斯科文大學的教授鍾凱莉(Kelly Choong ,音譯)指出,AI的偏見往往是被人類本身的偏見驅動,缺乏批判性思維和評估,從而導致歧視等疑慮,除了希望開發人員能改進演算法,減少此類偏差,也應培養使用者與AI共存,同時又挑戰其輸出能力。
更多「2024巴黎奧運」相關新聞。