城大邀美教授開講從深度語言模型透視人腦的奧秘 - 明報升學網

城大邀美教授開講
從深度語言模型透視人腦的奧秘

當大家與人工智能(AI)對談,甚至進行文字創作,有沒有想過AI是否真的理解語言,還是單純在模仿人類的表達方式?這並非哲學討論,而是當代認知科學和人工智能領域的研究重點之一。

來自美國普林斯頓大學的Uri Hasson教授為世界權威的心理學與神經科學專家
來自美國普林斯頓大學的Uri Hasson教授為世界權威的心理學與神經科學專家

香港城市大學人文社會科學院(城大人院,簡稱CLASS)創辦的城大人院研究方法學習班(CLASS Advanced Methods School, CAMS),於今年6月6日特別邀請來自美國普林斯頓大學(Princeton University)心理學及神經科學學系Uri Hasson教授,以「深度語言模型作為人腦自然語言處理的認知模型」(Deep Language Models as a Cognitive Model for Natural Language Processing in the Human Brain)為題,進行了一場跨越認知神經科學與AI的精彩演講。Hasson教授的研究,旨在探索AI模型與人腦之間的相似性,並試圖解開語言處理的神秘密碼。

城大副校長(研究)岑浩璋教授(左)頒發紀念品予講者Uri Hasson教授
城大副校長(研究)岑浩璋教授(左)頒發紀念品予講者Uri Hasson教授

AI與人類智慧對話

Hasson教授以一個看似簡單卻充滿寓意的問題引發觀眾思考:「我們的大腦和AI模型在處理語言時,是否共享相似的機制?」他指出,人類大腦在語言處理上展現出驚人的預測能力:當聽到一句說話時,大腦會迅速預測接下來可能出現的詞彙或語義,這種預測性思維讓大家能夠快速理解語言中的邏輯和情感。而深度語言模型(如ChatGPT、Gemini和DeepSeek等)也採用類似的策略,通過對大規模語料的訓練,逐步學會如何預測下一個詞語,從而生成流暢的文本或語句。

然而,Hasson教授強調,雖然AI模型和人腦在語言處理上展現出一些相似性,但它們的運作方式仍存在本質上的區別。AI模型靠着龐大的數據,能在極短時間內通過運算吸收大量語言資訊,學習速度遠超人類,不過卻傾向使用最常見的語句,例如「天空是藍色的」等;人類的語言運用則更具創造性,會經常使用新穎或不確定的表達來吸引聽眾注意,傳遞情感或信息。這種語言層面的創意,是目前AI難以模仿的特質。

從實驗室到真實場景觀察語言

傳統的認知神經科學往往依賴高度控制的實驗室環境,這種方法固然能產生清晰的數據,卻難以應對真實生活的複雜性和突發性。為了解決這個問題,Hasson教授和他的團隊採取逆向思維,跳出實驗室,從自然場景中提取語言信息和大腦的運作數據,試圖還原人類真實的語言處理過程。他們與癲癇患者合作,在醫院內安裝攝影和麥克風,記錄病人與家人和醫護人員之間的對話。通過同步記錄患者的大腦活動,這些數據不但揭示了語言與大腦之間的高度聯繫,也提供關於人腦如何在自然語境中處理語言的寶貴線索。

講座吸引逾200名觀眾透過現場或線上形式參與,反應熱烈。
講座吸引逾200名觀眾透過現場或線上形式參與,反應熱烈。

探究嬰兒語言學習 開啟AI模型新篇章

Hasson教授亦分享他最新的大型研究計劃「生命初始的一千天」(The First 1000 Days),他的團隊說服15個不同背景擁有新生嬰兒的家庭,在嬰兒出生後的首3年內,每天長時間記錄語音、視覺和互動數據,觀察嬰兒如何在日常生活中學習語言。這些數據不僅包括嬰兒聽到的語言,也涵蓋了他們看到的物件、與父母或兄弟姐妹的互動方式等,目標是建立全球極具規模的嬰兒語言學習資料庫。

研究團隊會利用這些真實數據進行分析,模擬嬰兒學習語言的過程,並與AI語言模型進行對比。初步研究顯示,AI語言模型在幾個月內就學會基本語音單位,並在一年後掌握數以千計的詞彙,學習速度也與人類嬰兒相近。研究團隊希望能揭示人類語言學習的機制,並為新一代AI語言模式提供靈感和基礎。

Uri Hasson教授(中)與多位城大學者進行學術交流,包括協理副校長(環球戰略)、媒體與傳播系林芬教授(右)及公共及國際事務學系、CAMS召集人鄭煒教授(左)。
Uri Hasson教授(中)與多位城大學者進行學術交流,包括協理副校長(環球戰略)、媒體與傳播系林芬教授(右)及公共及國際事務學系、CAMS召集人鄭煒教授(左)。

AI語言模式未來發展方向

儘管深度語言模型的表現令人印象深刻,但Hasson教授也坦言,AI目前仍然存在多方面的局限。例如,AI模型缺乏人類的情感與文化背景,無法真正理解語言所承載的情感和意義。此外,AI依賴大量的數據訓練,而人類嬰兒僅通過有限的語言輸入,就能構建起豐富的語言能力。

為了縮窄這些差距,Hasson教授倡議將多模態信息(如視覺、運動和社會互動)整合到AI模型中,使其更貼近人類的認知方式。他指出,未來的AI研究需要多學科的深度合作,涵蓋神經科學、語言學、計算機科學和心理學等領域。這些研究不僅有助於改進AI技術,還能為語言障礙的診斷和治療提供新工具,甚至可能應用於教育領域,設計出更高效的語言學習方法。

隨着人工智慧與人腦的界線日益模糊,若能打造出一套具備高度擬人化語言理解機制的AI模型,並精準預測大腦反應,那麼人類將更接近解開大腦語言運作的奧秘,貢獻基礎科學研究。

網址:https://www.cityu.edu.hk/class/

 

返回頂端