快速开始
如果遇到任何安装问题,请先查询 FAQ
在线体验
官网在线应用
官网在线版功能与客户端一致,界面美观,功能丰富,需要登录使用
基于Gradio的在线demo
基于gradio开发的webui,界面简洁,仅包含核心解析功能,免登录
本地部署
Warning
安装前必看——软硬件环境支持说明
为了确保项目的稳定性和可靠性,我们在开发过程中仅对特定的软硬件环境进行优化和测试。这样当用户在推荐的系统配置上部署和运行项目时,能够获得最佳的性能表现和最少的兼容性问题。
通过集中资源和精力于主线环境,我们团队能够更高效地解决潜在的BUG,及时开发新功能。
在非主线环境中,由于硬件、软件配置的多样性,以及第三方依赖项的兼容性问题,我们无法100%保证项目的完全可用性。因此,对于希望在非推荐环境中使用本项目的用户,我们建议先仔细阅读文档以及FAQ,大多数问题已经在FAQ中有对应的解决方案,除此之外我们鼓励社区反馈问题,以便我们能够逐步扩大支持范围。
| 解析后端 | pipeline (精度1 82+) |
vlm (精度1 90+) | |||
|---|---|---|---|---|---|
| transformers | mlx-engine | vllm-engine / vllm-async-engine |
http-client | ||
| 后端特性 | 速度快, 无幻觉 | 兼容性好, 速度较慢 | 比transformers快 | 速度快, 兼容vllm生态 | 适用于OpenAI兼容服务器5 |
| 操作系统 | Linux2 / Windows / macOS | macOS3 | Linux2 / Windows4 | 不限 | |
| CPU推理支持 | ✅ | ❌ | 不需要 | ||
| GPU要求 | Volta及以后架构, 6G显存以上或Apple Silicon | Apple Silicon | Volta及以后架构, 8G显存以上 | 不需要 | |
| 内存要求 | 最低16GB以上, 推荐32GB以上 | 8GB | |||
| 磁盘空间要求 | 20GB以上, 推荐使用SSD | 2GB | |||
| python版本 | 3.10-3.13 | ||||
1 精度指标为OmniDocBench (v1.5)的End-to-End Evaluation Overall分数,基于MinerU最新版本测试
2 Linux仅支持2019年及以后发行版
3 MLX需macOS 13.5及以上版本支持,推荐14.0以上版本使用
4 Windows vLLM通过WSL2(适用于 Linux 的 Windows 子系统)实现支持
5 兼容OpenAI API的服务器,如通过vLLM/SGLang/LMDeploy等推理框架部署的本地模型服务器或远程模型服务
Tip
除以上主流环境与平台外,我们也收录了一些社区用户反馈的其他平台支持情况,详情请参考其他加速卡适配。
如果您有意将自己的环境适配经验分享给社区,欢迎通过show-and-tell提交或提交PR至其他加速卡适配文档。
安装 MinerU
使用pip或uv安装MinerU
pip install --upgrade pip -i https://mirrors.aliyun.com/pypi/simple
pip install uv -i https://mirrors.aliyun.com/pypi/simple
uv pip install -U "mineru[core]" -i https://mirrors.aliyun.com/pypi/simple
通过源码安装MinerU
git clone https://github.com/opendatalab/MinerU.git
cd MinerU
uv pip install -e .[core] -i https://mirrors.aliyun.com/pypi/simple
Tip
mineru[core]包含除vllm加速外的所有核心功能,兼容Windows / Linux / macOS系统,适合绝大多数用户。
如果您有使用vllm加速VLM模型推理,或是在边缘设备安装轻量版client端等需求,可以参考文档扩展模块安装指南。
使用docker部署Mineru
MinerU提供了便捷的docker部署方式,这有助于快速搭建环境并解决一些棘手的环境兼容问题。 您可以在文档中获取Docker部署说明。
使用 MinerU
最简单的命令行调用方式:
mineru -p <input_path> -o <output_path>
您可以通过命令行、API、WebUI等多种方式使用MinerU进行PDF解析,具体使用方法请参考使用指南。