OCR领域又卷起来了!复旦大学FVL实验室刚刚开源重磅神器OpenOCR,基于最新SVTRv2架构,不仅在准确率上全面碾压PP-OCRv4,还通过0.1B参数的UniRec模型实现了“文本+公式”的统一识别。无论你是做文档数字化还是学术论文解析,这款工具都可能成为你新的首选。
在处理复杂的文档图像时,开发者往往面临着艰难的抉择:
有没有一款工具,既能保持极速推理,又能通吃文本和公式,甚至在精度上实现降维打击?
OpenOCR是由复旦大学 FVL 实验室(OCR Team)最新开源的通用OCR系统。它的核心目标是建立一个统一的场景文本检测与识别基准,并在此基础上提供一套高精度、高效率的工业级解决方案。
它不仅仅是一个模型,更是一整套基于最新学术成果(SVTRv2)构建的实用系统。在OCR竞赛榜单上,OpenOCR 在保持相似推理速度的前提下,准确率比行业标杆 PP-OCRv4 提升了 4.5%!
核心宣言:让CTC模型(连接时序分类)在场景文本识别中击败Encoder-Decoder模型。
OpenOCR 的强大源于其底层的两大核心技术突破:
你没看错,仅用0.1B (1亿)参数,UniRec 就能同时识别:
这是 OpenOCR 的“引擎”。SVTRv2 通过引入多尺寸重采样 (Multi-size Resizing)和特征重排 (Feature Rearrangement)模块,解决了传统CTC模型在处理不规则文本时的短板。
OpenOCR 的安装极其简单,支持 ONNX 和 PyTorch 两种推理模式。
# 安装核心库(包含ONNX运行时支持)
pip install openocr-python
pip install onnxruntime
无需安装 PyTorch 及其庞大的依赖,直接通过 ONNX 运行,轻量又快速:
fromopenocrimportOpenOCR
# 初始化 ONNX 引擎 (支持 cpu 或 cuda)
onnx_engine = OpenOCR(backend='onnx', device='cpu')
# 只需要这一行,搞定图片识别
img_path ='./test_image.jpg'
result, elapse = onnx_engine(img_path)
print(f"耗时:{elapse}s")
print(result)
如果你不想写代码,也可以直接通过命令行调用:
# 端到端推理(检测 + 识别)
python tools/infer_e2e.py --img_path=./doc_imgs --backend=onnx
OpenOCR 的发布标志着通用 OCR 技术又迈上了一个新台阶。特别是 UniRec 模型的出现,让“文本+公式”混合识别变得前所未有的简单。对于正在寻找 PP-OCR 替代方案,或者苦恼于数学公式识别的开发者来说,OpenOCR 绝对值得一试。
你还在为 OCR 的识别精度发愁吗?快去 GitHub 给这个国产开源之光点个 Star 🌟,并在你的下一个项目中尝试使用它吧!
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |