README_zh-CN.md
<a href="https://trendshift.io/repositories/11174" target="_blank"></a>
<!-- language --> <!-- hot link --> <p align="center"> 🚀<a href="https://mineru.net/?source=github">MinerU 官网入口→✅ 免装在线版 ✅ 全功能客户端 ✅ 开发者API在线调用,省去部署麻烦,多种产品形态一键get,速冲!</a> </p> <!-- join us --> <p align="center"> 👋 join us on <a href="https://discord.gg/Tdedn9GTXq" target="_blank">Discord</a> and <a href="https://mineru.net/community-portal/?aliasId=3c430f94" target="_blank">WeChat</a> </p> </div>2026/02/06 2.7.6 发布
2026/01/30 2.7.4 发布
2026/01/23 2.7.2 发布
2026/01/06 2.7.1 发布
2025/12/30 2.7.0 发布
vlm加速引擎依赖包,安装时使用uv pip install mineru[all]即可安装所有可选后端的依赖包。hybrid,该后端结合了pipeline和vlm后端的优势,在vlm的基础上,融入了pipeline的部分能力,在高精度的基础上增加了额外的扩展性:
vlm/hybrid后端的引擎选择逻辑,用户只需指定后端为*-auto-engine,系统会根据当前环境自动选择合适的引擎进行推理加速,提升易用性.pipeline切换至hybrid-auto-engine,提升新用户开箱即用的结果一致性,避免出现解析结果认知差异。📝 查看完整的 更新日志 了解更多历史版本信息
MinerU是一款将PDF转化为机器可读格式的工具(如markdown、json),可以很方便地抽取为任意格式。 MinerU诞生于书生-浦语的预训练过程中,我们将会集中精力解决科技文献中的符号转化问题,希望在大模型时代为科技发展做出贡献。 相比国内外知名商用产品MinerU还很年轻,如果遇到问题或者结果不及预期请到issue提交问题,同时附上相关PDF。
https://github.com/user-attachments/assets/4bea02c9-6d54-4cd6-97ed-dff14340982c
如果安装或使用中遇到任何问题,请先查询 <a href="#faq">FAQ</a> </br> 如果遇到解析效果不及预期,参考 <a href="#known-issues">Known Issues</a></br>
官网在线版功能与客户端一致,界面美观,功能丰富,需要登录使用
基于gradio开发的webui,界面简洁,仅包含核心解析功能,免登录
<table> <thead> <tr> <th rowspan="2">解析后端</th> <th rowspan="2">pipeline</th> <th colspan="2">*-auto-engine</th> <th colspan="2">*-http-client</th> </tr> <tr> <th>hybrid</th> <th>vlm</th> <th>hybrid</th> <th>vlm</th> </tr> </thead> <tbody> <tr> <th>后端特性</th> <td >兼容性好</td> <td colspan="2">硬件配置要求较高</td> <td colspan="2">适用于OpenAI兼容服务器<sup>2</sup></td> </tr> <tr> <th>精度指标<sup>1</sup></th> <td style="text-align:center;">82+</td> <td colspan="4" style="text-align:center;">90+</td> </tr> <tr> <th>操作系统</th> <td colspan="5" style="text-align:center;">Linux<sup>3</sup> / Windows<sup>4</sup> / macOS<sup>5</sup></td> </tr> <tr> <th>纯CPU平台支持</th> <td style="text-align:center;">✅</td> <td colspan="2" style="text-align:center;">❌</td> <td colspan="2" style="text-align:center;">✅</td> </tr> <tr> <th>GPU加速支持</th> <td colspan="4" style="text-align:center;">Volta及以后架构GPU或Apple Silicon</td> <td rowspan="2">不需要</td> </tr> <tr> <th>显存最低要求</th> <td style="text-align:center;">6GB</td> <td style="text-align:center;">10GB</td> <td style="text-align:center;">8GB</td> <td style="text-align:center;">3GB</td> </tr> <tr> <th>内存要求</th> <td colspan="3" style="text-align:center;">最低16GB以上,推荐32GB以上</td> <td colspan="2" style="text-align:center;">最低8GB</td> </tr> <tr> <th>磁盘空间要求</th> <td colspan="3" style="text-align:center;">20GB以上,推荐使用SSD</td> <td colspan="2" style="text-align:center;">至少2GB</td> </tr> <tr> <th>python版本</th> <td colspan="5" style="text-align:center;">3.10-3.13</td> </tr> </tbody> </table>[!WARNING] 安装前必看——软硬件环境支持说明
为了确保项目的稳定性和可靠性,我们在开发过程中仅对特定的软硬件环境进行优化和测试。这样当用户在推荐的系统配置上部署和运行项目时,能够获得最佳的性能表现和最少的兼容性问题。
通过集中资源和精力于主线环境,我们团队能够更高效地解决潜在的BUG,及时开发新功能。
在非主线环境中,由于硬件、软件配置的多样性,以及第三方依赖项的兼容性问题,我们无法100%保证项目的完全可用性。因此,对于希望在非推荐环境中使用本项目的用户,我们建议先仔细阅读文档以及FAQ,大多数问题已经在FAQ中有对应的解决方案,除此之外我们鼓励社区反馈问题,以便我们能够逐步扩大支持范围。
<sup>1</sup> 精度指标为OmniDocBench (v1.5)的End-to-End Evaluation Overall分数,基于MinerU最新版本测试
<sup>2</sup> 兼容OpenAI API的服务器,如通过vLLM/SGLang/LMDeploy等推理框架部署的本地模型服务器或远程模型服务
<sup>3</sup> Linux仅支持2019年及以后发行版
<sup>4</sup> 由于关键依赖ray未能在windows平台支持Python 3.13,故仅支持至3.10~3.12版本
<sup>5</sup> macOS 需使用14.0以上版本
[!TIP] 除以上主流环境与平台外,我们也收录了一些社区用户反馈的其他平台支持情况,详情请参考其他加速卡适配。
如果您有意将自己的环境适配经验分享给社区,欢迎通过show-and-tell提交或提交PR至其他加速卡适配文档。
pip install --upgrade pip -i https://mirrors.aliyun.com/pypi/simple
pip install uv -i https://mirrors.aliyun.com/pypi/simple
uv pip install -U "mineru[all]" -i https://mirrors.aliyun.com/pypi/simple
git clone https://github.com/opendatalab/MinerU.git
cd MinerU
uv pip install -e .[all] -i https://mirrors.aliyun.com/pypi/simple
[!TIP]
mineru[all]包含所有核心功能,兼容Windows / Linux / macOS系统,适合绝大多数用户。 如果您需要指定vlm模型的推理框架,或是仅准备在边缘设备安装轻量版client端,可以参考文档扩展模块安装指南。
MinerU提供了便捷的docker部署方式,这有助于快速搭建环境并解决一些棘手的环境兼容问题。 您可以在文档中获取Docker部署说明。
[!TIP] 默认使用托管在
huggingface的模型进行解析,首次使用时会自动下载所需模型文件,后续使用将直接加载本地缓存的模型。如果您无法访问huggingface,可以通过以下命令切换至国内镜像源:bashexport MINERU_MODEL_SOURCE=modelscope
如果您的设备满足上表中GPU加速的条件,可以使用简单的命令行进行文档解析:
mineru -p <input_path> -o <output_path>
如果您的设备不满足GPU加速条件,可以指定后端为pipeline,以在纯CPU环境下运行:
mineru -p <input_path> -o <output_path> -b pipeline
您可以通过命令行、API、WebUI等多种方式使用MinerU进行PDF解析,具体使用方法请参考使用指南。
本项目目前部分模型基于YOLO训练,但因其遵循AGPL协议,可能对某些使用场景构成限制。未来版本迭代中,我们计划探索并替换为许可条款更为宽松的模型,以提升用户友好度及灵活性。
@misc{niu2025mineru25decoupledvisionlanguagemodel,
title={MinerU2.5: A Decoupled Vision-Language Model for Efficient High-Resolution Document Parsing},
author={Junbo Niu and Zheng Liu and Zhuangcheng Gu and Bin Wang and Linke Ouyang and Zhiyuan Zhao and Tao Chu and Tianyao He and Fan Wu and Qintong Zhang and Zhenjiang Jin and Guang Liang and Rui Zhang and Wenzheng Zhang and Yuan Qu and Zhifei Ren and Yuefeng Sun and Yuanhong Zheng and Dongsheng Ma and Zirui Tang and Boyu Niu and Ziyang Miao and Hejun Dong and Siyi Qian and Junyuan Zhang and Jingzhou Chen and Fangdong Wang and Xiaomeng Zhao and Liqun Wei and Wei Li and Shasha Wang and Ruiliang Xu and Yuanyuan Cao and Lu Chen and Qianqian Wu and Huaiyu Gu and Lindong Lu and Keming Wang and Dechen Lin and Guanlin Shen and Xuanhe Zhou and Linfeng Zhang and Yuhang Zang and Xiaoyi Dong and Jiaqi Wang and Bo Zhang and Lei Bai and Pei Chu and Weijia Li and Jiang Wu and Lijun Wu and Zhenxiang Li and Guangyu Wang and Zhongying Tu and Chao Xu and Kai Chen and Yu Qiao and Bowen Zhou and Dahua Lin and Wentao Zhang and Conghui He},
year={2025},
eprint={2509.22186},
archivePrefix={arXiv},
primaryClass={cs.CV},
url={https://arxiv.org/abs/2509.22186},
}
@misc{wang2024mineruopensourcesolutionprecise,
title={MinerU: An Open-Source Solution for Precise Document Content Extraction},
author={Bin Wang and Chao Xu and Xiaomeng Zhao and Linke Ouyang and Fan Wu and Zhiyuan Zhao and Rui Xu and Kaiwen Liu and Yuan Qu and Fukai Shang and Bo Zhang and Liqun Wei and Zhihao Sui and Wei Li and Botian Shi and Yu Qiao and Dahua Lin and Conghui He},
year={2024},
eprint={2409.18839},
archivePrefix={arXiv},
primaryClass={cs.CV},
url={https://arxiv.org/abs/2409.18839},
}
@article{he2024opendatalab,
title={Opendatalab: Empowering general artificial intelligence with open datasets},
author={He, Conghui and Li, Wei and Jin, Zhenjiang and Xu, Chao and Wang, Bin and Lin, Dahua},
journal={arXiv preprint arXiv:2407.13773},
year={2024}
}