僅僅在大模型之上“套殼”做應(yīng)用,是非常危險的。

從AI教育看AI創(chuàng)業(yè)

2025-08-30 14:44:42發(fā)布     來源:dowell之自言自語    作者:林路  

  來源|dowell之自言自語

  作者|林路

  

  編者按:

  本文系轉(zhuǎn)載,作者為北極光創(chuàng)投合伙人林路,他2012年加入北極光,已在傳統(tǒng)互聯(lián)網(wǎng)與移動互聯(lián)網(wǎng)領(lǐng)域深耕10余年,他參與投資及投后管理的項目眾多,其中教育科技項目有VIPKID、火花思維及美奇互動等。

  本文中,作者從AI教育看AI創(chuàng)業(yè)方面展開思考。作者認(rèn)為AI與移動互聯(lián)網(wǎng)時代最大的不同在于——領(lǐng)先的大模型公司追求的是通用智能,而非局限在單一垂直應(yīng)用。初創(chuàng)公司要抵御大模型公司的滲透,關(guān)鍵在于兩點(diǎn):其一,行業(yè)的know-how 足夠復(fù)雜,短期內(nèi)難以被通用模型復(fù)制;其二,長期積累的用戶數(shù)據(jù)能夠持續(xù)優(yōu)化產(chǎn)品體驗。

  01 前言

  這次 AI 與移動互聯(lián)網(wǎng)時代最大的不同在于——領(lǐng)先的大模型公司追求的是通用智能,而非局限在單一垂直應(yīng)用。僅僅在大模型之上“套殼”做應(yīng)用,是非常危險的。

  在移動互聯(lián)網(wǎng)時代,我們并不擔(dān)心操作系統(tǒng)廠商會憑借平臺優(yōu)勢輕易顛覆應(yīng)用市場。即便 Apple 推出了 iMessage,也難以撼動微信或 WhatsApp 的地位。而在 AI 時代,大模型公司的戰(zhàn)略是 “模型即應(yīng)用”:模型不僅能快速擴(kuò)展能力到任意領(lǐng)域,還能以更高的維度直接與你競爭。當(dāng)你為模型配置 CoT(Chain of Thought)時,它可以將推理能力內(nèi)化;當(dāng)你用 workflow 拆分復(fù)雜任務(wù)時,模型本身就能進(jìn)化為具備自主分解與執(zhí)行的 Agent。

  更重要的是,目前大模型公司的單位經(jīng)濟(jì)(UE) 并不理想,這反而驅(qū)動它們不斷向周邊場景滲透、延伸能力,以尋找更多變現(xiàn)路徑?,F(xiàn)實案例已經(jīng)給出了警示——依賴 Claude 能力的工具Windsurf,在被 OpenAI 收購后,遭Anthropic 切斷 API,陷入尷尬境地,最終只能被Google 收下技術(shù)團(tuán)隊。

  初創(chuàng)公司要抵御大模型公司的滲透,關(guān)鍵在于兩點(diǎn):其一,行業(yè)的 know-how 足夠復(fù)雜,短期內(nèi)難以被通用模型復(fù)制;其二,長期積累的用戶數(shù)據(jù)能夠持續(xù)優(yōu)化產(chǎn)品體驗。教育行業(yè)正是這樣一條賽道。盡管 OpenAI 早已將教育列為重點(diǎn)拓展領(lǐng)域,并在數(shù)年前投資了韓國英語 AI 教育公司 Speak,但單純讓用戶直接與 AI 對話,并不能觸及教育的核心痛點(diǎn),更難以解決學(xué)習(xí)動機(jī)、課程設(shè)計、反饋機(jī)制等深層問題。

  02 關(guān)于教育的know how

  我們先來探討一下學(xué)習(xí)動機(jī)的問題。雖然人的智商確實存在差異,但在小學(xué)到高中的學(xué)習(xí)過程中,智商的影響往往被高估了。我更傾向于相信,大腦和肌肉一樣,需要持續(xù)的訓(xùn)練刺激才能不斷增強(qiáng),因此持續(xù)且高效的學(xué)習(xí)投入才是關(guān)鍵。

  然而,人的注意力天生容易分散,某種程度上,每個人都或多或少帶有“ADHD”(注意缺陷多動障礙)的特質(zhì)。關(guān)于人類無法長時間專注,已有多種理論解釋:

  生理節(jié)律:為了不遺漏潛在的警示信息,大腦會周期性地轉(zhuǎn)移注意力;資源有限:大腦運(yùn)轉(zhuǎn)消耗巨大,持續(xù)集中會迅速消耗能量;

  大腦疲勞:和肌肉一樣,大腦在長時間運(yùn)作后也會疲憊;

  外部干擾與信息超載:環(huán)境噪音、信息轟炸不斷侵入注意力;

  認(rèn)知機(jī)制復(fù)雜性:人類思維本就容易被多任務(wù)和聯(lián)想打斷。

  成年人可能因目標(biāo)、責(zé)任和現(xiàn)實壓力,獲得“不得不堅持”的動機(jī),但對于學(xué)生,尤其是低齡學(xué)生,要長期抵抗注意力分散的天性,其實是非常困難的。

  如何解決學(xué)習(xí)動機(jī)問題,游戲設(shè)計給了我們答案。雖然大部分游戲也都是腦力運(yùn)動,但很多人樂此不疲。很大原因是“心流曲線“的設(shè)計。游戲保證玩家有一定挑戰(zhàn)能夠完成一個任務(wù),并且在這個過程中得到成長,在下一關(guān)提升難度是玩家依然努力能夠完成。然后游戲通過角色數(shù)字的成就,獲得資源或者游戲道具形成正向的反饋。

  如果你研究過一些具有歷史積淀的國外英語教材,就會發(fā)現(xiàn)它們的設(shè)計極為精巧。教材一開始會呈現(xiàn)單詞的基本形態(tài),幾個章節(jié)之后,這些單詞會以不同形態(tài)再次出現(xiàn);句子結(jié)構(gòu)則從最初的簡潔逐步過渡到更復(fù)雜的形式。同時,每個單元之間的難度遞增都經(jīng)過精確控制,既避免讓學(xué)生覺得過于簡單而失去挑戰(zhàn),又不會讓他們因難度陡增而產(chǎn)生挫敗感。

  這種循序漸進(jìn)、環(huán)環(huán)相扣的編排,是高度精細(xì)的教學(xué)設(shè)計。在今天,大模型連講個笑話都未必能流暢自如的情況下,要完成如此嚴(yán)謹(jǐn)?shù)臐u進(jìn)設(shè)計更是難上加難。即便是經(jīng)驗豐富的人類教師,也需要在學(xué)生使用過程中不斷評估和調(diào)整課程結(jié)構(gòu),以確保設(shè)計合理?;剡^頭來看,那些優(yōu)秀的教材往往都是經(jīng)過數(shù)十年不斷修訂、打磨出來的成果。

  傳統(tǒng)紙質(zhì)教材最大的局限在于信息傳遞是單向的,無法為學(xué)生提供即時的正向反饋。也正因為如此,過去許多國內(nèi)外教育公司都致力于利用計算機(jī)軟件,為學(xué)習(xí)過程加入正向激勵機(jī)制。比如,每隔 5 分鐘讓學(xué)生完成一個小動作,或者在課程結(jié)束后頒發(fā)某種勛章獎勵。這些設(shè)計看似簡單,卻同樣需要經(jīng)過精心策劃與反復(fù)驗證,才能真正激發(fā)并維持學(xué)生的學(xué)習(xí)動機(jī)。相較之下,單純依賴大模型不斷夸獎學(xué)生,不僅難以形成有效反饋,還可能削弱激勵效果。真正的正向反饋,需要科學(xué)的節(jié)奏安排與行為觸發(fā)機(jī)制,而非泛泛的語言贊美。

  當(dāng)然,教育行業(yè)最大的 know-how在于,許多 AI 從業(yè)者其實并不了解教育領(lǐng)域還存在這些隱性規(guī)律與關(guān)鍵要素。因此,我們看到像 Speak、Elsa Speak 這樣的產(chǎn)品,雖然主打所謂的“場景對話”,但往往面臨兩個問題:第一,用戶很難長期堅持使用;第二,用戶在持續(xù)學(xué)習(xí)的過程中,也很難獲得能力的顯著提升。

  如果回到 2014 年中國教培行業(yè)興起的階段來看,最早一批跑通商業(yè)模式的,幾乎都是出身于傳統(tǒng)教培行業(yè)的從業(yè)者。等到教研體系與互聯(lián)網(wǎng)教育的商業(yè)模式逐漸被驗證和解決之后,互聯(lián)網(wǎng)背景的創(chuàng)業(yè)者才通過“挖人”的方式切入賽道,完成知識與經(jīng)驗的遷移。我相信,在 AI 時代,這個過程很可能會重演——依舊是深諳行業(yè)規(guī)律的從業(yè)者率先跑通模式,隨后才由技術(shù)或互聯(lián)網(wǎng)背景的創(chuàng)業(yè)者加速放大。

  03 先文科還是先理科

  我們??吹酱竽P驮?nbsp;IMO 這類競賽中“卷”出高分,便自然認(rèn)為它在理科上的突破進(jìn)展飛快。但回到最初階段,大模型甚至分不清 3.11 和 3.8 誰大。隨著強(qiáng)化學(xué)習(xí)的引入,這類低級錯誤逐漸減少,但在未經(jīng)過強(qiáng)化學(xué)習(xí)優(yōu)化的領(lǐng)域,它依然會頻繁犯錯。

  如果有與之相當(dāng)?shù)奈目聘傎?,其實今天的大模型很可能已遠(yuǎn)超人類。就在幾年前,我還看不懂美國同事用 Google 翻譯寫的中文郵件,而現(xiàn)在,我已能用大模型在微信上與他用英文順暢討論極其復(fù)雜的問題。大模型在文章觀點(diǎn)歸納、資料整理等任務(wù)上已相當(dāng)嫻熟。OpenAI 的 Deep Research 功能甚至已能達(dá)到、甚至超過實習(xí)生的水平。

  而文科里面大模型更擅長的是語言。

  我一直覺得 Newsela App 的分級閱讀很有趣——用戶可以根據(jù)自己的英文水平,選擇相應(yīng)難度的版本來閱讀同一篇新聞。直到有一次我去灣區(qū)見了他們的投資人,才從當(dāng)時尚未被 Y Combinator 并購的 Reach Capital 那里得知,原來他們有龐大的團(tuán)隊專門負(fù)責(zé)將新聞改寫成不同等級的版本。如果換作今天,大模型完全可以輕松勝任這一工作。

  我自己經(jīng)常用 Kimi 來精讀英文文檔:先上傳文檔,再給出指令——“從第一章開始逐段解析,每一段先配英文原文,然后再跟解析,并列出生僻詞匯和詞組”——這樣我就能系統(tǒng)地、逐句地消化一篇很長的英文文章。遇到生詞時,我還可以直接向大模型詢問釋義,并讓它給出例句。這些在過去往往需要投入大量教研資源才能完成的工作,如今大模型卻能瞬間完成。借助大模型的閱讀插件,只需選中英文單詞,就能快速結(jié)合上下文給出精準(zhǔn)解析,而不必自己去揣測一個多義詞在句子中的具體含義。

  我有時會用英語口語與 ChatGPT 對話,探討一些感興趣的話題,甚至還能請它在交流過程中幫我糾正語言問題。幾年前,要獲得這樣的體驗,不僅得安裝 C2C 軟件并付費(fèi)找老外聊天,還得擔(dān)心對方是否帶有難懂的口音。

  當(dāng)下的語言教育,其實只缺一家能夠?qū)⑦@一整套工具與優(yōu)質(zhì)教研設(shè)計相結(jié)合的公司,讓用戶能夠循序漸進(jìn)地掌握一門語言。