公益DeepSeek OCR:快速解析图片和PDF为Markdown及图片描述
公益DeepSeek OCR是一个开源项目,旨在利用闲置机器通过vllm部署,快速解析图片和PDF文件,将其转换为Markdown格式,并提供图片描述。这个项目可以替代常用的simpletex,操作简单,用户只需将文件粘贴或拖拽到指定界面即可进行识别,并且支持直接复制结果。重要的是,服务器不会存储用户数据,仅使用vllm进行一次性处理。项目开源代码托管在GitHub上,链接为:BetterAndBetterII/my-deepseek-ocr。此外,开发者计划开放公益的DeepSeek OCR的API,但需要了解如何生成并分发公益站的。部署环境建议使用两张3090显卡,本地Docker部署命令如下:
docker run --rm --gpus "device=0,1" --ipc=host --shm-size=16g -p 8000:8000 -v ~/.cache/huggingface:/root/.cache/huggingface -v ~/vllm:/root/vllm vllm/vllm-openai:nightly --model deepseek-ai/DeepSeek-OCR --tensor-parallel-size 2 --distributed-executor-backend mp --logits-processors "vllm.model_executor.models.deepseek_ocr:NGramPerReqLogitsProcessor" --chat-template "/root/vllm/template_deepseek_ocr.jinja"此外,还需要将模板文件拷贝到本地,模板文件链接为:vllm/vllm/transformers_utils/chat_templates/template_deepseek_ocr.jinja at main · vllm-project/vllm。更多信息和讨论可以在的论坛中找到:[](https:///t/topic/1110005)。该项目由用户BosaBosa发起,目前已有21个帖子,15位参与者。有关项目的更多细节和讨论,可以参考GitHub上的相关链接和论坛。