a.png
3.7 MB
像这样,其实也可以直接在 OCR 的时候…不,是在拼接的时候直接存个 filename map 直接允许批量处理了再裁回来,再允许直接在这些帧文件上运行 OCR…… 还算简单,毕竟
ocrWithLocalMaxima 这个子程序被抽象为了一个方法,只需要弄一个把帧文件映射回 Frame 对象的程序即可 😂
duangsuse::Echo
a.png
已经支持
做法很简单,削掉 peak estimation (postprocessDifferences 和 findPeaks 都赋一个没 self 的 lambda)
然后拿 image inputs 映射到
然后创建 reducer (
--only-images 做法很简单,削掉 peak estimation (postprocessDifferences 和 findPeaks 都赋一个没 self 的 lambda)
然后拿 image inputs 映射到
Frame(no, img, 0) 然后创建 reducer (
ExtractSubtitle.DefaultOcrFold) 、 ocrWithLocalMaxima(frames, reducer) 、 reducer.finishAll() 完事Forwarded from Aelita Lyoko
视频图像是差分压缩差分渲染的,然而可能弹幕的渲染被放在图像变化区域渲染之前了,就导致变化区域的图像盖住了弹幕
关于绘制提速…… 一般最大的想法就是 OpenCV-Python only (no PIL) 或者干脆 C++ 重写好了
参数也就 font(size), scale, spacing / calc_draw_color(key_color, key_res)
之前想了一种按行而非字符绘制文本的思路,可是发现根本不可行——排除 horizontal 间距没法自定义不提,不同字符不同颜色没法做到!
缓存什么的,估计 pillow 或者 freetype 什么的也是有做的(当然,freetype 只是一个栅格化库而已啦)
参数也就 font(size), scale, spacing / calc_draw_color(key_color, key_res)
之前想了一种按行而非字符绘制文本的思路,可是发现根本不可行——排除 horizontal 间距没法自定义不提,不同字符不同颜色没法做到!
缓存什么的,估计 pillow 或者 freetype 什么的也是有做的(当然,freetype 只是一个栅格化库而已啦)