一邊看實(shí)物,一邊跟 AI 練外語(yǔ),Spatial Lingo構(gòu)建了一種三維互動(dòng)的體驗(yàn)。
又一款沉浸式學(xué)語(yǔ)言的AI 應(yīng)用來了!“所見即所得”成為現(xiàn)實(shí)。
近日,Meta為 Meta Quest 3 /Meta Quest 3S 開發(fā)的一款沉浸式語(yǔ)言學(xué)習(xí)VR+AI 開源語(yǔ)言學(xué)習(xí)應(yīng)用正式上線,其融合了混合現(xiàn)實(shí)透視功能與AI驅(qū)動(dòng)的物體識(shí)別技術(shù)。這款名為“Spatial Lingo: Language Practice”的應(yīng)用,戴上 Quest 眼鏡,在真實(shí)的臥室、客廳、辦公室里,甚至是外出探索,可以一邊看實(shí)物,一邊跟 AI 練外語(yǔ)。
Spatial Lingo應(yīng)用的核心概念是通過引導(dǎo)用戶使用目標(biāo)語(yǔ)言識(shí)別并描述周圍環(huán)境中的物體,從而提升語(yǔ)言能力。在一個(gè)名為Golly Gosh的3D虛擬角色引導(dǎo)下,用戶將利用身邊熟悉的物品練習(xí)詞匯。該應(yīng)用支持手部追蹤和控制器操作,增強(qiáng)了用戶的沉浸感。
Meta將“Spatial Lingo”稱為“前沿展示性應(yīng)用”,它能夠通過AI技術(shù)與Quest 3的透視攝像頭API,將轉(zhuǎn)譯后的詞匯疊加到現(xiàn)實(shí)物體上,從而把用戶的環(huán)境轉(zhuǎn)變?yōu)榛?dòng)課堂。

該應(yīng)用的AI功能不僅專注于物體識(shí)別以輔助詞匯積累,同時(shí)配備了一個(gè)3D虛擬伙伴作為學(xué)習(xí)向?qū)?。Meta表示,該伙伴會(huì)在用戶練習(xí)口語(yǔ)時(shí)提供鼓勵(lì)與反饋。
Golly Gosh這個(gè)3D角色能夠用多種不同的語(yǔ)言說話。語(yǔ)音是根據(jù)文本動(dòng)態(tài)合成的,因此可以在語(yǔ)言課程中教用戶正確的發(fā)音。

團(tuán)隊(duì)指出,該應(yīng)用能實(shí)時(shí)聆聽用戶語(yǔ)音、評(píng)估回答,并幫助掌握發(fā)音技巧。
例如,當(dāng)系統(tǒng)檢測(cè)到用戶正在查看一把皮椅時(shí),AI助手會(huì)發(fā)起對(duì)話:“這把椅子看起來很舒服,你能用目標(biāo)語(yǔ)言描述一下它的材質(zhì)和顏色嗎?”這種基于真實(shí)場(chǎng)景的情境化學(xué)習(xí)方法遠(yuǎn)勝于傳統(tǒng)的圖片卡片或虛擬場(chǎng)景設(shè)置等應(yīng)用,使語(yǔ)言練習(xí)能夠與日常生活深度融合。
隨著用戶不斷構(gòu)建語(yǔ)言樹,系統(tǒng)會(huì)自動(dòng)生成與物體相關(guān)的動(dòng)詞和形容詞,豐富課程內(nèi)容。此外,該應(yīng)用還具備文本轉(zhuǎn)語(yǔ)音和轉(zhuǎn)錄功能,支持多種語(yǔ)言,進(jìn)一步提升了交互性。
根據(jù) Meta 的官方介紹,該應(yīng)用利用空間錨點(diǎn)技術(shù)將虛擬對(duì)話框固定在物理空間中,確保用戶移動(dòng)時(shí)交互界面保持穩(wěn)定。這項(xiàng)技術(shù)顯著提升了混合現(xiàn)實(shí)體驗(yàn)的連貫性,避免了虛擬元素漂移造成的沉浸感中斷。
與依賴屏幕單向輸入的傳統(tǒng)語(yǔ)言學(xué)習(xí)應(yīng)用不同,Spatial Lingo 構(gòu)建了一種三維互動(dòng)體驗(yàn)。用戶可以在客廳、臥室、廚房等不同空間自由走動(dòng)。AI 助手會(huì)根據(jù)環(huán)境切換對(duì)話主題——在廚房練習(xí)食物詞匯,在書房討論閱讀話題,在臥室學(xué)習(xí)日常用語(yǔ)。

這種設(shè)計(jì)理念源于語(yǔ)言學(xué)習(xí)中的“情景記憶”原理。當(dāng)學(xué)習(xí)內(nèi)容與特定的物理空間聯(lián)系起來時(shí),大腦更容易形成長(zhǎng)期記憶。用戶每次在同一場(chǎng)景中使用目標(biāo)語(yǔ)言時(shí),都會(huì)強(qiáng)化神經(jīng)連接,最終形成相關(guān)表達(dá)的條件反射。
使用VR學(xué)習(xí)會(huì)更沉浸更專注,普華永道《VR軟技能培訓(xùn)效果研究》(2020年)數(shù)據(jù)顯示,接受VR培訓(xùn)的員工在培訓(xùn)期間的專注度比接受在線學(xué)習(xí)的員工高出4倍,比課堂學(xué)習(xí)的員工高出1.5倍。普華永道認(rèn)為,當(dāng)學(xué)習(xí)者沉浸在VR體驗(yàn)中時(shí),他們往往能從培訓(xùn)中獲得更多益處,并取得更好的學(xué)習(xí)成果。
在中國(guó),洛圖科技《2025 XR 行業(yè)發(fā)展白皮書》數(shù)據(jù)顯示,在教育領(lǐng)域,某中學(xué)用AR課件讓化學(xué)方程式“浮”在課桌上,學(xué)生吸收率提升了47.6%。可見,沉浸式學(xué)習(xí)方式比傳統(tǒng)學(xué)習(xí)方式有效。
Spatial Lingo 還將生成式AI融入其中。Meta技術(shù)團(tuán)隊(duì)表示,該應(yīng)用內(nèi)置的語(yǔ)音識(shí)別系統(tǒng)支持多種語(yǔ)言的實(shí)時(shí)反饋,可以糾正發(fā)音錯(cuò)誤并提供語(yǔ)法建議。其AI對(duì)話引擎由大型語(yǔ)言模型驅(qū)動(dòng),能夠理解上下文信息,生成自然流暢的多輪對(duì)話,避免機(jī)械化的問答模式。
根據(jù)介紹,Spatial Lingo目前僅在美國(guó)開放,完整代碼以開源形式發(fā)布給開發(fā)者社區(qū)。
Meta官方文檔中詳細(xì)解釋了空間映射、物體識(shí)別和語(yǔ)音交互等核心模塊的實(shí)現(xiàn)方法。
這一策略體現(xiàn)了Meta致力于培育混合現(xiàn)實(shí)教育應(yīng)用生態(tài)系統(tǒng)的意圖。通過提供可復(fù)用的技術(shù)框架,第三方開發(fā)者可以快速構(gòu)建類似的應(yīng)用,并將其擴(kuò)展到數(shù)學(xué)輔導(dǎo)、歷史教學(xué)、職業(yè)培訓(xùn)等更多領(lǐng)域。開源代碼托管在GitHub平臺(tái)上,吸引了數(shù)百名開發(fā)者參與優(yōu)化和功能擴(kuò)展。
行業(yè)分析指出,Meta此舉不僅展現(xiàn)了其技術(shù)實(shí)力,也是對(duì)蘋果Vision Pro等競(jìng)爭(zhēng)對(duì)手的戰(zhàn)略回應(yīng)。在2026年空間計(jì)算設(shè)備競(jìng)爭(zhēng)日益激烈的背景下,構(gòu)建開發(fā)者生態(tài)系統(tǒng)已成為平臺(tái)廠商的核心競(jìng)爭(zhēng)力之一。
現(xiàn)在,市面上主打沉浸式學(xué)習(xí)的應(yīng)用不少,大多數(shù)集中在2D范圍內(nèi)。不過,市面上的VR語(yǔ)言學(xué)習(xí)產(chǎn)品也有很多,僅Quest應(yīng)用商店中已有IMMERSE、Language Lab、Lingo Quest等多款應(yīng)用,部分產(chǎn)品還提供混合模式,將真人課程與AI輔導(dǎo)相結(jié)合。
然而,在行業(yè)人士看來,Spatial Lingo這類應(yīng)用存在一些挑戰(zhàn),比如,其完全依賴光照條件,在昏暗環(huán)境下物體識(shí)別準(zhǔn)確率會(huì)降低;同時(shí),AI對(duì)話內(nèi)容的深度和專業(yè)性有待提升,難以滿足高級(jí)學(xué)習(xí)者的需求;目前僅支持美國(guó)地區(qū)的訪問也限制了全球用戶的體驗(yàn)機(jī)會(huì)。
Meta技術(shù)團(tuán)隊(duì)表示,未來的版本將優(yōu)化算法,提升在弱光環(huán)境下的識(shí)別性能,并引入更強(qiáng)大的垂直領(lǐng)域語(yǔ)言模型,以支持商務(wù)英語(yǔ)和學(xué)術(shù)寫作等專業(yè)學(xué)習(xí)場(chǎng)景。同時(shí),團(tuán)隊(duì)正在評(píng)估將應(yīng)用開放給更多國(guó)家和地區(qū)的可行性。
不論如何,Spatial Lingo是Meta在教育領(lǐng)域的又一次嘗試,也為開發(fā)者提供了良好的開源示例,展示了如何將混合現(xiàn)實(shí)技術(shù)與語(yǔ)言學(xué)習(xí)相結(jié)合,也預(yù)示著混合現(xiàn)實(shí)和AI相結(jié)合的無限可能。
地址:https://github.com/oculus-samples/Unity-SpatialLingo