在windows上本地部署manga-image-translator,一键汉化想看的漫画

在windows上本地部署manga-image-translator,一键汉化想看的漫画

前言

之前一直在用 cotrans.touhou.ai 搭配自己写的脚本来批量汉化本人想看的本子,结果几个月没用发现它不能用了(一直pending)。

去github页面查看发现这个官方部署的demo站已经被关闭(no longer working),正好现在有了比较正经的显卡,所以尝试自行部署它的后端:https://github.com/zyddnys/manga-image-translator

该项目的中文官方文档:

https://github.com/zyddnys/manga-image-translator/blob/main/README_CN.md

部署过程

环境

本人使用的环境:

  • 系统:windows11 专业工作站版已安装所有更新
  • 显卡:rtx5060 laptop
  • cuda:12.8.97
  • docker:Docker Desktop 4.44.2 (202017)

其他无关紧要,主要是显卡。

安装docker

本人头一次用docker,之前对这玩意儿有偏见,总觉得套个容器效率会下降,而且磁盘占用很大,所以之前部署其他东西都是尽量venv里裸机运行。不过这次在吃过requirements怎么也配不好的铁拳之后我还是默默转向了docker,倒是省心太多了。。

没什么好说的,去官网下载docker desktop,直接安装。

拉取镜像&准备工作

在docker desktop里直接pull这个镜像:zyddnys/manga-image-translator:main

然后准备一个目录专门存放容器所需要挂载的东西,拉取它的git仓库:https://github.com/zyddnys/manga-image-translator ,复制仓库里的server目录到这个工作目录。然后再在这个工作目录里新建一个result目录。

现在这个工作目录的结构应该类似这样:

1
2
3
4
5
6
7
8
9
10
11
12
13
manga_transl
├─result
└─server
args.py
index.html
instance.py
main.py
manual.html
myqueue.py
request_extraction.py
sent_data_internal.py
streaming.py
to_json.py

首次启动容器&更新torch

在这个工作目录里运行,注意我改了一些参数,现在和官方readme中的有区别:

1
docker run --name manga_image_translator_gpu   -p 5003:5003   --ipc=host   --gpus all   --entrypoint python  -v result:/app/result   -v server:/app/server -e DEEPSEEK_API_KEY='YOUR_DEEPSEEK_TOKEN' zyddnys/manga-image-translator:main   server/main.py --verbose --start-instance --host=0.0.0.0 --port=5003 --use-gpu

没有报错的话这时候就能在浏览器打开 localhost:5003 来访问ui了。

我用的是deepseek翻译,所以env里面设置了ds的token。其他的翻译接口需要设置的变量可以参考官方文档:

https://github.com/zyddnys/manga-image-translator/blob/main/README_CN.md#翻译器参考

但是这个镜像自带torch对应的cuda版本是11.8,无法与我的显卡兼容,具体表现是报错RuntimeError: CUDA error: no kernel image is available for execution on the device CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1.,我们需要更新torch版本来适应我们的机器。

去torch官网找安装命令:https://pytorch.org/get-started/locally/

选择stable linux pip python cuda12.8,官网给出的安装命令:

1
pip3 install torch torchvision

没有指定index-url说明这个版本是当前pypi上托管的主流版本。

进入容器的shell:

1
docker exec -i -t manga_image_translator_gpu /bin/bash

在容器shell里查看torch的版本:

1
pip freeze | grep torch
1
2
3
4
5
6
open_clip_torch==2.32.0
torch==2.8.0
torch-summary==1.4.5
torchaudio==2.8.0
torchelastic==0.2.2
torchvision==0.23.0

我这个是更新过的,没更新过的应该版本是cu118,这里看个意思就行了。

我们需要更新其中的torch torchvision torchaudio

直接在容器shell里进行更新:

1
pip install -U torch torchvision torchaudio

更新完成后重启容器即可正常使用gpu来进行文字识别、嵌字。

使用

启动容器,在浏览器打开 localhost:5003 上传图片即可进行翻译。记得选择翻译器为你配置好的,比如我配置了ds的token,所以这里用的是deepseek。什么都没有的话可以使用local模型进行本地翻译,不过效果肯定是不如在线模型的好。


在windows上本地部署manga-image-translator,一键汉化想看的漫画
https://www.hakurei.org.cn/2025/08/17/manga-image-translator-deploy-locally-windows/
作者
zjkimin
发布于
2025年8月17日
更新于
2025年8月17日
许可协议