使用docker部署Mineru
MinerU提供了便捷的docker部署方式,这有助于快速搭建环境并解决一些棘手的环境兼容问题。
使用 Dockerfile 构建镜像
wget https://gcore.jsdelivr.net/gh/opendatalab/MinerU@master/docker/china/Dockerfile
docker build -t mineru-vllm:latest -f Dockerfile .
Tip
Dockerfile默认使用vllm/vllm-openai:v0.10.1.1
作为基础镜像,
该版本的vLLM v1 engine对显卡型号支持有限,如您无法在Turing及更早架构的显卡上使用vLLM加速推理,可通过更改基础镜像为vllm/vllm-openai:v0.10.2
来解决该问题。
Docker说明
Mineru的docker使用了vllm/vllm-openai
作为基础镜像,因此在docker中默认集成了vllm
推理加速框架和必需的依赖环境。因此在满足条件的设备上,您可以直接使用vllm
加速VLM模型推理。
Note
使用vllm
加速VLM模型推理需要满足的条件是:
- 设备包含Turing及以后架构的显卡,且可用显存大于等于8G。
- 物理机的显卡驱动应支持CUDA 12.8或更高版本,可通过
nvidia-smi
命令检查驱动版本。 - docker中能够访问物理机的显卡设备。
启动 Docker 容器
docker run --gpus all \
--shm-size 32g \
-p 30000:30000 -p 7860:7860 -p 8000:8000 \
--ipc=host \
-it mineru-vllm:latest \
/bin/bash
执行该命令后,您将进入到Docker容器的交互式终端,并映射了一些端口用于可能会使用的服务,您可以直接在容器内运行MinerU相关命令来使用MinerU的功能。
您也可以直接通过替换/bin/bash
为服务启动命令来启动MinerU服务,详细说明请参考通过命令启动服务。
通过 Docker Compose 直接启动服务
我们提供了compose.yml文件,您可以通过它来快速启动MinerU服务。
# 下载 compose.yaml 文件
wget https://gcore.jsdelivr.net/gh/opendatalab/MinerU@master/docker/compose.yaml
Note
compose.yaml
文件中包含了MinerU的多个服务配置,您可以根据需要选择启动特定的服务。- 不同的服务可能会有额外的参数配置,您可以在
compose.yaml
文件中查看并编辑。 - 由于
vllm
推理加速框架预分配显存的特性,您可能无法在同一台机器上同时运行多个vllm
服务,因此请确保在启动vlm-vllm-server
服务或使用vlm-vllm-engine
后端时,其他可能使用显存的服务已停止。
启动 vllm-server 服务
并通过vlm-http-client
后端连接vllm-server
docker compose -f compose.yaml --profile vllm-server up -d
Tip
在另一个终端中通过http client连接vllm server(只需cpu与网络,不需要vllm环境)
mineru -p <input_path> -o <output_path> -b vlm-http-client -u http://<server_ip>:30000
启动 Web API 服务
docker compose -f compose.yaml --profile api up -d
Tip
在浏览器中访问 http://<server_ip>:8000/docs
查看API文档。
启动 Gradio WebUI 服务
docker compose -f compose.yaml --profile gradio up -d
Tip
- 在浏览器中访问
http://<server_ip>:7860
使用 Gradio WebUI。 - 访问
http://<server_ip>:7860/?view=api
使用 Gradio API。