(中央社倫敦27日綜合外電報導)情緒辨識技術是透過臉部表情、聲調變化或肢體語言等生理特徵,辨識人類情緒的最新科技。研究人員指出,儘管存在準確性和更嚴重的侵犯人權等疑慮,這項技術在中國日益普及。
隨著人工智慧技術日趨成熟,情緒辨識技術的運用益發廣泛,從偵訊時協助警方監控嫌疑人臉部表情,到學校透過追蹤學生眼睛移動裝置揪出不專心上課學生等,都有這類工具用武之地。
英國人權倡議組織Article 19本週發表調查報告,公布中國有數十家公司,在教育、公安與運輸領域提供這類工具。
Article 19的資深計畫幹部馬達(Vidushi Marda)表示:「基於這項技術的種族歧視基礎和違反基本人權,應禁止相關設計、開發、部署、銷售與轉移。」
調查報告共同作者、加州大學柏克萊分校(University of California, Berkeley)網路安全博士候選人阿邁德(Shazeda Ahmed)表示,科技工具無法可靠量測及量化人類情緒。
她又說,這類系統可能會助長偏見,尤其是利用生理特徵協助警方辨別罪犯的辨識系統。
這類系統也引發對一些新興趨勢的疑慮,包括搜集情緒資料來監控學生、犯罪嫌疑人,甚至利用辨識技術來偵測疲勞或不安全動作以監控汽車駕駛等。
阿邁德在電訪中告訴湯森路透基金會(TRF):「一大堆這類辨識系統通常不會說明,它們將會如何處理與長期運用這些資料。」
她補充說,「我們相當擔心功能蠕變(functioncreep)」,指的是把搜集到資料運用在其他用途。
馬達則指出,即使是那些看似無傷大雅的情緒辨識技術也可能造成傷害。她說:「這類監控容易產生滑坡效應(slippery slope)」。
「舉例來說,有一間學校引進監控系統評估學生在學校有無均衡飲食,不久後可能就會變成情緒辨識系統,誰知道接下來又會演變成什麼?」(實習編譯:王宇潔/核稿:劉學源)1100128
我是廣告 請繼續往下閱讀
英國人權倡議組織Article 19本週發表調查報告,公布中國有數十家公司,在教育、公安與運輸領域提供這類工具。
Article 19的資深計畫幹部馬達(Vidushi Marda)表示:「基於這項技術的種族歧視基礎和違反基本人權,應禁止相關設計、開發、部署、銷售與轉移。」
調查報告共同作者、加州大學柏克萊分校(University of California, Berkeley)網路安全博士候選人阿邁德(Shazeda Ahmed)表示,科技工具無法可靠量測及量化人類情緒。
她又說,這類系統可能會助長偏見,尤其是利用生理特徵協助警方辨別罪犯的辨識系統。
這類系統也引發對一些新興趨勢的疑慮,包括搜集情緒資料來監控學生、犯罪嫌疑人,甚至利用辨識技術來偵測疲勞或不安全動作以監控汽車駕駛等。
阿邁德在電訪中告訴湯森路透基金會(TRF):「一大堆這類辨識系統通常不會說明,它們將會如何處理與長期運用這些資料。」
她補充說,「我們相當擔心功能蠕變(functioncreep)」,指的是把搜集到資料運用在其他用途。
馬達則指出,即使是那些看似無傷大雅的情緒辨識技術也可能造成傷害。她說:「這類監控容易產生滑坡效應(slippery slope)」。
「舉例來說,有一間學校引進監控系統評估學生在學校有無均衡飲食,不久後可能就會變成情緒辨識系統,誰知道接下來又會演變成什麼?」(實習編譯:王宇潔/核稿:劉學源)1100128