
我們的答案是:不能。大模型的優(yōu)勢(shì)固然顯著,但小模型的價(jià)值同樣不可替代。二者的深度融合,才是現(xiàn)階段 OCR 領(lǐng)域的最優(yōu)解。
首先來看下OCR技術(shù)的演進(jìn)。
傳統(tǒng)模式識(shí)別時(shí)期:該階段的 OCR 技術(shù)主要基于模板匹配和特征提取的方法來實(shí)現(xiàn)字符識(shí)別。具體來說,就是將待識(shí)別的字符圖像與預(yù)先定義好的模板進(jìn)行匹配,通過計(jì)算相似度來確定字符的類別。這種方法在處理簡(jiǎn)單、規(guī)范的字符時(shí)表現(xiàn)尚可,但對(duì)于復(fù)雜的字體、手寫體以及受到噪聲干擾的圖像,其識(shí)別準(zhǔn)確率往往不盡人意。
此外,傳統(tǒng) OCR 技術(shù)還依賴大量的人工特征工程,需要手動(dòng)設(shè)計(jì)和提取字符的特征,這不僅耗時(shí)費(fèi)力,而且難以適應(yīng)多樣化的應(yīng)用場(chǎng)景。
深度學(xué)習(xí)應(yīng)用時(shí)期:隨著卷積神經(jīng)網(wǎng)絡(luò)(CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體長短期記憶網(wǎng)絡(luò)(LSTM)等深度學(xué)習(xí)技術(shù)的發(fā)展,使得 OCR 從手工特征提取的模式轉(zhuǎn)變?yōu)樽詣?dòng)學(xué)習(xí)高級(jí)語義特征的模式,大大提高了識(shí)別的準(zhǔn)確率和魯棒性。
CNN 能夠自動(dòng)學(xué)習(xí)圖像中的局部特征,通過多層卷積和池化操作,有效地提取字符的邊緣、紋理等特征信息;RNN 和 LSTM 則擅長處理序列數(shù)據(jù),能夠捕捉字符之間的上下文關(guān)系,對(duì)于識(shí)別連續(xù)的文本具有顯著優(yōu)勢(shì)。 它能夠處理各種復(fù)雜的場(chǎng)景,如自然場(chǎng)景中的文本識(shí)別、手寫體識(shí)別、多語言混合文本識(shí)別等,為 OCR 技術(shù)的廣泛應(yīng)用開辟了新的道路。
核心步驟包括文字檢測(cè)、文字識(shí)別及信息抽取,每個(gè)步驟都由一個(gè)或多個(gè)深度學(xué)習(xí)模型完成。

大模型時(shí)代的OCR識(shí)別:大模型的核心架構(gòu)多基于 Transformer,這一架構(gòu)憑借自注意力機(jī)制(Self - Attention),能夠有效捕捉數(shù)據(jù)中的長距離依賴關(guān)系,極大地提升了模型對(duì)上下文信息的理解與處理能力。
在OCR領(lǐng)域,大模型的應(yīng)用主要分為兩條技術(shù)路線:
路徑一:OCR小模型 + 純語言大模型,該路線是 “傳統(tǒng) OCR 基礎(chǔ)能力 + 大模型語義理解能力” 的組合方案:先用輕量級(jí) OCR 小模型完成圖像到原始文本的轉(zhuǎn)換,再用純語言大模型(僅處理文本輸入)對(duì)原始文本進(jìn)行結(jié)構(gòu)化抽取、糾錯(cuò)或語義解析。
路徑二:多模態(tài)大模型。多模態(tài)大模型是“圖像輸入→文本輸出” 的端到端解決方案,其核心能力是同時(shí)理解圖像的視覺特征(文字形狀、位置、布局)和語言的語義信息,直接從圖像中完成 “識(shí)別 + 理解 + 抽取” 的全流程,無需顯式拆分 OCR 和語義處理環(huán)節(jié)。

大模型文檔識(shí)別的優(yōu)劣勢(shì)比較
大模型識(shí)別的優(yōu)勢(shì)在于:
識(shí)別流程簡(jiǎn)化:過去需要多個(gè)模型串聯(lián)才能完成的任務(wù),現(xiàn)在一個(gè)“端到端”的大模型就能搞定。這不僅減少了開發(fā)的復(fù)雜性,也避免了每個(gè)環(huán)節(jié)傳遞時(shí)可能產(chǎn)生的誤差累積。比如識(shí)別一張身份證,過去要圖像校正、文字定位、識(shí)別、字段抽取好幾步,現(xiàn)在直接把圖片發(fā)給大模型,姓名、地址、身份證號(hào)一次性抽取出來。
泛化能力強(qiáng):大模型在新場(chǎng)景下的適應(yīng)能力非常強(qiáng)。比如銀行交易回單,每家銀行的格式都不一樣,過去可能需要對(duì)每一種格式都做針對(duì)性的模型訓(xùn)練,現(xiàn)在用大模型,不需要專門訓(xùn)練,就能達(dá)到較為理想的識(shí)別效果。

語義理解與結(jié)構(gòu)化:大模型能讀懂文字背后的邏輯關(guān)系,尤其是在處理合同、招股書、法律文書這類長篇、復(fù)雜的文檔時(shí),優(yōu)勢(shì)明顯。
大模型為OCR帶來了新的可能性,但也有明顯的局限。
1. 高成本
首先是訓(xùn)練成本高。訓(xùn)練一個(gè)千億參數(shù)的大模型,需要幾十甚至上百臺(tái)頂級(jí)的GPU服務(wù)器,僅硬件采購,就是數(shù)百萬美元的投入。
其次是數(shù)據(jù),高質(zhì)量的標(biāo)注數(shù)據(jù)是按條計(jì)費(fèi)的,一個(gè)覆蓋多場(chǎng)景、多語言的大模型,數(shù)據(jù)成本就能達(dá)到上千萬人民幣。最后是時(shí)間和人力,整個(gè)訓(xùn)練周期可能長達(dá)數(shù)月,需要一個(gè)算法團(tuán)隊(duì)不間斷地監(jiān)控和調(diào)優(yōu)。
而且模型訓(xùn)練好只是第一步,在實(shí)際業(yè)務(wù)中使用(也就是“推理”)的成本同樣驚人。大模型的計(jì)算量巨大,導(dǎo)致它的推理速度非常慢,處理同一個(gè)OCR任務(wù),耗時(shí)可能是小模型的10到100倍。這意味著,用大模型替換小模型,并且還要維持原有的業(yè)務(wù)處理效率,硬件投入也要翻10到100倍。對(duì)于像每天調(diào)用量上千萬次的高頻業(yè)務(wù),用大模型基本不現(xiàn)實(shí)。
2. 高延時(shí)
由于大模型的復(fù)雜結(jié)構(gòu)和龐大參數(shù)規(guī)模,在批量處理場(chǎng)景中,大模型的并行計(jì)算能力受限于內(nèi)存帶寬,單位時(shí)間內(nèi)處理的樣本數(shù)量遠(yuǎn)低于傳統(tǒng)模型。一臺(tái)服務(wù)器在1分鐘內(nèi),傳統(tǒng)模型可處理5000張圖像,而大模型僅能處理500-800張,吞吐量差距高達(dá)6-10倍。
3. 精度較低
這可能是最反直覺的一點(diǎn)。大模型在理解整段文本的語義上很強(qiáng),但在最基礎(chǔ)的、單個(gè)字符的識(shí)別準(zhǔn)確率上,有時(shí)候反而不如小模型。
● 生僻字、特殊符號(hào)識(shí)別差:工程領(lǐng)域的專用符號(hào),古籍里的生僻字等,因?yàn)樵诤A康挠?xùn)練數(shù)據(jù)里占比太小,大模型“見得少、學(xué)得差”,識(shí)別準(zhǔn)確率可能比專門優(yōu)化過的小模型低很多。
● 相似字符容易混淆:比如“己、已、巳”,或者“b、d、p”。大模型太依賴上下文去“猜”,反而忽略了字符本身的細(xì)微差別。在對(duì)準(zhǔn)確性要求極高的場(chǎng)景,這種錯(cuò)誤達(dá)不到上線標(biāo)準(zhǔn)。
4. 優(yōu)化難
小模型如果識(shí)別某個(gè)字效果不好,我們可以針對(duì)性地調(diào)整、優(yōu)化。但大模型是個(gè)“黑箱”,內(nèi)部極其復(fù)雜。想針對(duì)某個(gè)特定問題做微調(diào),需要投入海量的新數(shù)據(jù),否則很容易把模型“改壞”,在A場(chǎng)景的優(yōu)化導(dǎo)致了B場(chǎng)景的性能下降。出了錯(cuò),也很難定位到具體是哪個(gè)環(huán)節(jié)的問題。
5. 幻覺問題
這是大模型特有的問題,它會(huì)“創(chuàng)造”出圖像里根本不存在的內(nèi)容。比如圖片上明明是“張三”,因?yàn)樗谀硞€(gè)上下文里學(xué)過“張王”,就可能在圖像有點(diǎn)模糊的情況下,自作主張地識(shí)別成“張王”。這種“幻覺”現(xiàn)象,源于它強(qiáng)大的語義聯(lián)想能力,但在要求絕對(duì)忠于原文的OCR任務(wù)里,這是個(gè)致命缺陷。
應(yīng)當(dāng)意識(shí)到,當(dāng)前大模型在部分應(yīng)用中存在的問題,為小模型提供了明確的應(yīng)用空間。小模型的存在并非技術(shù)迭代中的過渡形態(tài),而是基于實(shí)際應(yīng)用場(chǎng)景需求的“最優(yōu)解”。
其核心價(jià)值體現(xiàn)在三個(gè)維度:
● 成本敏感場(chǎng)景的剛需選擇: 在高頻OCR識(shí)別場(chǎng)景,若采用大模型,硬件成本會(huì)成數(shù)十倍地增加。例如,金融機(jī)構(gòu)處理身份證識(shí)別業(yè)務(wù),每日調(diào)用頻率可達(dá)百萬甚至千萬次,采用大模型在成本和效率上均不具備可行性。
● 邊緣設(shè)備的適配核心: 在手機(jī)、掃描儀、工業(yè)傳感器等邊緣設(shè)備中,小模型憑借低內(nèi)存占用(通常低于100MB)、高運(yùn)行效率(單樣本處理耗時(shí)低于20毫秒)成為剛需。例如,手機(jī)端的“拍照識(shí)別翻譯”功能需在0.5秒內(nèi)完成識(shí)別與翻譯,大模型因網(wǎng)絡(luò)延遲過高(通常超1秒)難以適配,而小模型則能滿足實(shí)時(shí)性要求,目前在該場(chǎng)景中小模型的市場(chǎng)占比超過95%。
● 特定場(chǎng)景的精度保障: 在印刷體識(shí)別、車牌識(shí)別、財(cái)稅票據(jù)識(shí)別等標(biāo)準(zhǔn)化場(chǎng)景中,小模型通過針對(duì)性優(yōu)化可實(shí)現(xiàn)99%以上的識(shí)別精度,高于大模型。例如,身份證需精準(zhǔn)區(qū)分“瑋”與“偉”、車牌號(hào)需要區(qū)分“A”與“4”等相似字符,小模型可通過定制化特征提取器實(shí)現(xiàn)高效識(shí)別,而大模型因過度依賴通用語義推測(cè),實(shí)際應(yīng)用中錯(cuò)誤率是小模型的5-10倍。

正是基于小模型上述的核心價(jià)值,從市場(chǎng)需求、技術(shù)演進(jìn)和商業(yè)成本結(jié)構(gòu)來看,其在未來3-5年內(nèi)仍將占據(jù)OCR領(lǐng)域的主導(dǎo)地位。
● 碎片化場(chǎng)景的覆蓋能力不可替代: OCR應(yīng)用場(chǎng)景呈現(xiàn)高度碎片化特征,從銀行票據(jù)、醫(yī)療病歷到工業(yè)零件編號(hào)、古籍文字,不同場(chǎng)景對(duì)識(shí)別速度、精度、成本的要求差異顯著。小模型可通過“場(chǎng)景定制化”模式快速適配細(xì)分需求,例如針對(duì)手寫病歷的小模型可優(yōu)化連筆字符識(shí)別,針對(duì)工業(yè)零件的小模型可增強(qiáng)對(duì)油污、磨損字符的魯棒性。相比之下,大模型追求“通用性”,難以在每個(gè)細(xì)分場(chǎng)景中達(dá)到最優(yōu)性能,目前其在碎片化場(chǎng)景中的市場(chǎng)份額不足10%。
● 技術(shù)迭代的輕量化趨勢(shì)支撐: 小模型的技術(shù)迭代正朝著“更高精度+更低資源消耗”的方向發(fā)展。例如,基于知識(shí)蒸餾的小模型可繼承大模型的部分語義理解能力,同時(shí)保持輕量化優(yōu)勢(shì);基于神經(jīng)架構(gòu)搜索(NAS)的小模型能自動(dòng)優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),在精度與效率間實(shí)現(xiàn)更優(yōu)平衡。數(shù)據(jù)顯示,2024年主流輕量化OCR小模型的識(shí)別精度較2022年提升8%,而計(jì)算資源消耗則下降40%,進(jìn)一步鞏固了其市場(chǎng)地位。
● 成本與效率的平衡難以被超越: 在商業(yè)應(yīng)用中,總擁有成本(TCO)與效率是企業(yè)決策的核心指標(biāo)。對(duì)于年處理量低于1000萬張的中小型企業(yè),小模型的TCO僅為大模型的1/5-1/10,且部署周期僅需1-2周,遠(yuǎn)低于大模型的3-6個(gè)月。
即便是大型企業(yè),在業(yè)務(wù)場(chǎng)景中也更傾向于選擇小模型,例如某大型電商平臺(tái)的快遞面單識(shí)別業(yè)務(wù),由大模型換為小模型后年成本降低800萬元,同時(shí)識(shí)別精度可保持在99.5%以上。
技術(shù)實(shí)現(xiàn)上,可通過級(jí)聯(lián)融合、混合部署及動(dòng)態(tài)路由來實(shí)現(xiàn)大小模型的融合:

級(jí)聯(lián)融合:先使用OCR小模型進(jìn)行圖像文字的初步識(shí)別,快速提取出文本的基礎(chǔ)信息,然后將識(shí)別結(jié)果輸入到語言大模型中,大模型利用其強(qiáng)大的語義理解和推理能力,對(duì)識(shí)別結(jié)果進(jìn)行進(jìn)一步的理解、分析和處理,如進(jìn)行內(nèi)容總結(jié)、結(jié)構(gòu)提取、問答等操作。這種方式結(jié)合了小模型的高效性和大模型的強(qiáng)理解能力。
混合部署:根據(jù)業(yè)務(wù)場(chǎng)景的需求(如實(shí)時(shí)性、精度、成本),顯式分配大模型或小模型的任務(wù),兩者獨(dú)立運(yùn)行但協(xié)同互補(bǔ)。高頻的標(biāo)準(zhǔn)證件、票據(jù)使用專用小模型識(shí)別,保證識(shí)別速度和低成本優(yōu)勢(shì),非標(biāo)、復(fù)雜長文檔使用大模型識(shí)別,保證效果及泛化能力。
動(dòng)態(tài)路由:根據(jù)輸入內(nèi)容的實(shí)際情況,自動(dòng)選擇大模型或小模型,實(shí)現(xiàn)智能化的資源分配。先通過一個(gè)分類模型實(shí)現(xiàn)對(duì)文檔的精準(zhǔn)分類,根據(jù)文檔類型,決策調(diào)用大模型或者小模型完成識(shí)別。
易道博識(shí)DeepIDP平臺(tái),采用大小模型協(xié)同架構(gòu),為企業(yè)提供兼具成本效益與高精度的解決方案。

在本架構(gòu)中,支持大模型與小模型級(jí)聯(lián)融合與混合部署,并可根據(jù)任務(wù)需求,調(diào)用不同的識(shí)別功能,使用內(nèi)置的文檔分類功能,實(shí)現(xiàn)大小模型的動(dòng)態(tài)路由。
展望未來,隨著算法的演進(jìn)和硬件算力的提升,大模型與小模型的界限也將逐漸模糊:大模型正向輕量化方向發(fā)展,以降低部署成本和推理延遲;而小模型則在硬件支持下,參數(shù)規(guī)模和能力邊界也在不斷擴(kuò)展。這種雙向演進(jìn),最終將促成二者在更深層次上的形態(tài)融合。
