人工智慧(AI)聊天機器人ChatGPT爆紅後,陸續引發許多人士的擔憂,認為對AI的應用和研發必須進行更多監管。而日本大阪大學的研究團隊,透過AI解碼受試者大腦,讓AI畫出受試者眼前所見圖案,等於是「讀心術」的初步實現,也再度引發倫理上的爭議。

我是廣告 請繼續往下閱讀
根據《半島電視台》報導,日本大阪大學的神經學家與助理教授高木(Takagi),率領研究團隊使用深度學習AI模型Stable Diffusion,高木團隊建立了模型讓AI分析一萬多張人腦的MRI影像後,AI開始學會將大腦活動「翻譯」成可讀格式。比如說AI在掃描受試者的大腦後,無需任何指令,就可以把受試者眼前看到的圖像,以高度還原的方式畫出來。

高木對於團隊目前取得的成果相當興奮,但高木強調這還不是「讀心術」,因為AI目前只能重現一個人看到的東西,但無法把受試者腦中想像的畫面轉譯出來。不過高木也直言,再經過一段時間的開發,AI或許就能做到,屆時不僅是人看到的東西,你想像的以及你腦中夢想的東西,AI都可以畫出來。

高木團隊的研究很快引來爭論,有人質疑這樣的技術若被濫用,就會侵犯個人隱私。高木坦承存在這樣的顧慮,如果政府可以透過AI技術直接「讀懂」你腦中所想,這是非常敏感的問題。但高木認為這是監管者應該去限制的,他只是負責開發技術,且高木強調自己的腳步不會停下。

高木表示,要想達到真正的「讀心術」,除了AI必須進化,人腦掃描技術也要相應提升。目前看來,AI的研發與時俱進,但人腦掃描技術相對來看進展較少。高木指出,無論AI再怎麼進步,人腦掃描技術若沒有突破,AI「翻譯」人腦的讀心就很難實際應用。

有專家認為,高木的研究很可能對阿茲海默症之類的腦部病變患者帶來幫助,如果能透過AI更好地理解人腦活動,說不定能在醫學上和神經科學上帶來突破。但目前這些都還言之過早,而且掃描人腦始終在倫理上存在爭議,即便是為了醫學用途,也可能刺探到受試者的隱私與秘密,如何界定解碼人腦資料的合理使用範圍,確實會是個難題。