MooreThreads
1. 测试平台
以下为本指南测试使用的平台信息,供参考:
os: Ubuntu 22.04.4 LTS
cpu: Intel x86-64
dcu: MTT S4000
driver: 3.0.0-rc-KuaE2.0
docker: 24.0.7
2. 环境准备
2.1 使用 Dockerfile 构建镜像
wget https://gcore.jsdelivr.net/gh/opendatalab/MinerU@master/docker/china/musa.Dockerfile
docker build --network=host -t mineru:musa-vllm-latest -f musa.Dockerfile .
3. 启动 Docker 容器
docker run -u root --name mineru_docker \
--network=host \
--ipc=host \
--shm-size=80g \
--privileged \
-e MTHREADS_VISIBLE_DEVICES=all \
-e MINERU_MODEL_SOURCE=local \
-it mineru:musa-vllm-latest \
/bin/bash
执行该命令后,您将进入到Docker容器的交互式终端,您可以直接在容器内运行MinerU相关命令来使用MinerU的功能。
您也可以直接通过替换/bin/bash为服务启动命令来启动MinerU服务,详细说明请参考通过命令启动服务。
4. 注意事项
不同环境下,MinerU对MooreThreads加速卡的支持情况如下表所示:
Note
兼容性说明:由于摩尔线程(MooreThreads)目前对 vLLM v1 引擎的支持尚待完善,MinerU 现阶段采用 v0 引擎作为适配方案。 受此限制,vLLM 的异步引擎(Async Engine)功能存在兼容性问题,可能导致部分使用场景无法正常运行。 我们将持续跟进摩尔线程对 vLLM v1 引擎的支持进展,并及时在 MinerU 中进行相应的适配与优化。
| 使用场景 | 容器环境 | ||
|---|---|---|---|
| vllm | |||
| 命令行工具(mineru) | pipeline | 🟢 | |
| <vlm/hybrid>-auto-engine | 🟢 | ||
| <vlm/hybrid>-http-client | 🟢 | ||
| fastapi服务(mineru-api) | pipeline | 🟢 | |
| <vlm/hybrid>-auto-engine | 🔴 | ||
| <vlm/hybrid>-http-client | 🟢 | ||
| gradio界面(mineru-gradio) | pipeline | 🟢 | |
| <vlm/hybrid>-auto-engine | 🔴 | ||
| <vlm/hybrid>-http-client | 🟢 | ||
| openai-server服务(mineru-openai-server) | 🟢 | ||
| 数据并行 (--data-parallel-size) | 🔴 | ||
注:
🟢: 支持,运行较稳定,精度与Nvidia GPU基本一致
🟡: 支持但较不稳定,在某些场景下可能出现异常,或精度存在一定差异
🔴: 不支持,无法运行,或精度存在较大差异
Tip
MooreThreads加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考GPU 枚举