使用 MinerU
快速配置模型源
MinerU默认使用huggingface
作为模型源,若用户网络无法访问huggingface
,可以通过环境变量便捷地切换模型源为modelscope
:
export MINERU_MODEL_SOURCE=modelscope
通过命令行快速使用
MinerU内置了命令行工具,用户可以通过命令行快速使用MinerU进行PDF解析:
# 默认使用pipeline后端解析
mineru -p <input_path> -o <output_path>
Note
命令行工具会在Linux和macOS系统自动尝试cuda/mps加速。Windows用户如需使用cuda加速,
请前往 Pytorch官网 选择适合自己cuda版本的命令安装支持加速的torch
和torchvision
。
# 或指定vlm后端解析
mineru -p <input_path> -o <output_path> -b vlm-transformers
Tip
vlm后端另外支持vllm
加速,与transformers
后端相比,vllm
的加速比可达20~30倍,可以在扩展模块安装指南中查看支持vllm
加速的完整包安装方法。
如果需要通过自定义参数调整解析选项,您也可以在文档中查看更详细的命令行工具使用说明。
通过api、webui、http-client/server进阶使用
- 通过python api直接调用:Python 调用示例
- 通过fast api方式调用:
mineru-api --host 0.0.0.0 --port 8000
Tip
在浏览器中访问
http://127.0.0.1:8000/docs
查看API文档。 - 启动gradio webui 可视化前端:
# 使用 pipeline/vlm-transformers/vlm-http-client 后端 mineru-gradio --server-name 0.0.0.0 --server-port 7860 # 或使用 vlm-vllm-engine/pipeline 后端(需安装vllm环境) mineru-gradio --server-name 0.0.0.0 --server-port 7860 --enable-vllm-engine true
Tip
- 在浏览器中访问
http://127.0.0.1:7860
使用 Gradio WebUI。 - 访问
http://127.0.0.1:7860/?view=api
使用 Gradio API。
- 在浏览器中访问
- 使用
http-client/server
方式调用:# 启动vllm server(需要安装vllm环境) mineru-vllm-server --port 30000
Tip
在另一个终端中通过http client连接vllm server(只需cpu与网络,不需要vllm环境)
mineru -p <input_path> -o <output_path> -b vlm-http-client -u http://127.0.0.1:30000
Note
所有vllm官方支持的参数都可用通过命令行参数传递给 MinerU,包括以下命令:mineru
、mineru-vllm-server
、mineru-gradio
、mineru-api
,
我们整理了一些vllm
使用中的常用参数和使用方法,可以在文档命令行进阶参数中获取。
基于配置文件扩展 MinerU 功能
MinerU 现已实现开箱即用,但也支持通过配置文件扩展功能。您可通过编辑用户目录下的 mineru.json
文件,添加自定义配置。
Important
mineru.json
文件会在您使用内置模型下载命令 mineru-models-download
时自动生成,也可以通过将配置模板文件复制到用户目录下并重命名为 mineru.json
来创建。
以下是一些可用的配置选项:
-
latex-delimiter-config
:- 用于配置 LaTeX 公式的分隔符
- 默认为
$
符号,可根据需要修改为其他符号或字符串。
-
llm-aided-config
:- 用于配置 LLM 辅助标题分级的相关参数,兼容所有支持
openai协议
的 LLM 模型 - 默认使用
阿里云百炼
的qwen2.5-32b-instruct
模型 - 您需要自行配置 API 密钥并将
enable
设置为true
来启用此功能。
- 用于配置 LLM 辅助标题分级的相关参数,兼容所有支持
-
models-dir
:- 用于指定本地模型存储目录,请为
pipeline
和vlm
后端分别指定模型目录, - 指定目录后您可通过配置环境变量
export MINERU_MODEL_SOURCE=local
来使用本地模型。
- 用于指定本地模型存储目录,请为