美國近期有研究團隊指出,他們借助功能性磁振造影掃描(fMRI)、神經網路語言模型等高科技輔助,成功將研究對象的大腦活動轉化為文字,研究結果顯示,團隊的語言解碼系統似乎成功掌握了轉錄受試者「聽到或想到」的一些要點。
根據《法新社》報導,美國德州大學奧斯汀分校(University of Texas at Austin)的神經科學家、聯合研究者胡特(Alexander Huth)表示,他的團隊語言解碼器在一個「非常不同的水平上」成功運作,是第一個無需在大腦侵入性植入任何東西,就能重建連續語言的系統。
接著,研究團隊再將這些數據輸入到使用GPT-1(ChatGPT中AI技術的前身)神經網路語言模型中,該模型經過訓練,預測每個人的大腦將如何回應感知到的語音,然後縮小範圍,直到找到最接近的選項。
為了測試模型的準確性,每個參與者隨後又在fMRI機器中聽了一個全新的故事,而解碼器可以恢復用戶先前聽到的一些內容要點。比如:參與者聽到「我還沒有駕照」這句話時,模型會顯示出「她甚至還沒有開始學開車」等字句。而且,即使參與者只在腦袋中思考故事,或觀看無聲電影,解碼器仍然能夠抓住要點,胡特聲稱:「我們正在解碼比語言更深層次的東西,然後將其轉化為語言。」
雖然這項研究還有很多缺失或要改進之處,而且語言解碼器的主要目的,是幫助失去溝通能力的人,但科學家也承認這項技術引發了「心理隱私」的爭議,甚至被視為「邁向讀心術的一步」,呼籲加速、加強制定保護精神隱私的法規。
我是廣告 請繼續往下閱讀
在這項研究中,由3個人在fMRI機器內,花16個小時聽《紐約時報》等媒體的播客節目,並繪製出單詞、短語和含義,如何在處理語言的大腦區域引發反應。
接著,研究團隊再將這些數據輸入到使用GPT-1(ChatGPT中AI技術的前身)神經網路語言模型中,該模型經過訓練,預測每個人的大腦將如何回應感知到的語音,然後縮小範圍,直到找到最接近的選項。
為了測試模型的準確性,每個參與者隨後又在fMRI機器中聽了一個全新的故事,而解碼器可以恢復用戶先前聽到的一些內容要點。比如:參與者聽到「我還沒有駕照」這句話時,模型會顯示出「她甚至還沒有開始學開車」等字句。而且,即使參與者只在腦袋中思考故事,或觀看無聲電影,解碼器仍然能夠抓住要點,胡特聲稱:「我們正在解碼比語言更深層次的東西,然後將其轉化為語言。」
雖然這項研究還有很多缺失或要改進之處,而且語言解碼器的主要目的,是幫助失去溝通能力的人,但科學家也承認這項技術引發了「心理隱私」的爭議,甚至被視為「邁向讀心術的一步」,呼籲加速、加強制定保護精神隱私的法規。