duangsuse::Echo
718 subscribers
4.26K photos
130 videos
583 files
6.48K links
import this:
美而不丑、明而不暗、短而不凡、长而不乱,扁平不宽,读而后码,行之天下,勿托地上天国。
异常勿吞,难过勿过,叹一真理。效率是很重要,盲目最是低效。
简明是可靠的先验,不是可靠的祭品。
知其变,守其恒,为天下式;穷其变,知不穷,得地上势。知变守恒却穷变知新,我认真理,我不认真。

技术相干订阅~
另外有 throws 闲杂频道 @dsuset
转载频道 @dsusep
极小可能会有批评zf的消息 如有不适可退出
suse小站(面向运气编程): https://WOJS.org/#/
Download Telegram
Forwarded from みつき そはら | 椒鹽九肚魚
現在是用1GB 實現 1M 的東西
Forwarded from dnaugsuz
HTML 里一般的 practice 就是 <meta name="viewport" content="initial-width=device-width"> 然后 body { margin: auto; }🤔

有时候觉得 DOM 现在的用法也蛮好玩的,就是有些人在里面利用 JS 改 style 的 left/top 和 width/height 创建悬浮窗口
还有人用 canvas 在网页里给网页截图

webpage application 在某些小工具的情况下的确没什么毛病,对于 electron-ssr 这种用途…… 我觉得还欠斟酌
Forwarded from dnaugsuz
只在之前知乎上扫一眼过画家算法这个名词,大概就是从远往近一个个画所以遮盖就正确…… 🤔
你们聊得都太好了,我已经整理到搜藏夹里了, @catten @GhostFlying @nekonull_ptr @iseki_zero 几位大佬能不能让我转发一部分到 @dsuse 去?
Forwarded from dnaugsuz
看起来本群聊天好久没熬到凌晨 1:35 了 🌝
Forwarded from dnaugsuz
大概就是一遍集合迭代算出一 color 一 boolean
Forwarded from dnaugsuz
绘制效率不高,毕竟是 PIL 和 OpenCV-python 合作,目前得靠一个 Numpy 中介,效率大概 12fps

而且绘制项目的集合虽然会提前算好 (x, y, color) 但具体流程是一个一个 ImageDraw 然后 text 上去…… 应该没有缓存和 SIMD 什么的优化
Forwarded from dnaugsuz
呃……等等,我找个视频给你看
是很久以前的B站视频了,那时候我连 bash 都不会写
Forwarded from 大 逗逼
你要显示?
Forwarded from 大 逗逼
还是输出一个视频就完事了
Forwarded from 大 逗逼
还是要display视频
Forwarded from dnaugsuz
找不到了…… 是一个中文的字符画《晚安喵》视频
Forwarded from dnaugsuz
https://www.bilibili.com/video/av40029529
有点类似这种(不过不是…… 我之前看到那个质量很高,是中文字符组成而且不同时间有不同的字符组成)

貌似是 C# .NET 做的,据说绘制速度比较慢,彩色中文字符画。 可是 B 站搜不到 2019 年以前的结果了 而且只能搜到标题……

https://www.jijidown.com/video/av9725649
发现哔叽好像可以搜到很早以前的视频
Forwarded from dnaugsuz
草,原来绘制和矩阵处理天生不兼容 #CV #Python #visualize
反正我是熟悉 n m y x i j 那一套
可以把 for (i=0; i<n; i++) 套到 绘制程序里

我们只需要往 i, n 扩展一个 j, m 就可以处理项目和 y, x 不匹配的情况
然后矩阵处理又是另一种情况,没有 w,h 什么的
Forwarded from dnaugsuz
https://github.com/sibojia/cv-uni-text
https://github.com/jrosebr1/imutils #Python #CV
噢,原来 PIL 已经可以被 CV 完全替代了啊 🤔
以前看 PIL 有的 filter 工具、kernel 之类和 convolution 都是 numpy 弄的,现在加上 cv 和 matplotlib 好像的确没必要用 PIL 了
PIL 的颜色模式也很头疼…… RGB, ARGB 也就算了,还有 I, L 这种奇奇怪怪的模式…… 色彩通道也叫 bands 而不是 channels
extract-subtitles 现在支持默认 export 被请求 OCR 的 subtitle image (-debug-crop) 了
./vcat_subtitle_imgs.py a.png frames/subtitle_*.png
a.png << ['frames/subtitle_0.png', 'frames/subtitle_4.png', 'frames/subtitle_5.png', 'frames/subtitle_8.png', 'frames/subtitle_10.png']..['frames/subtitle_299.png', 'frames/subtitle_300.png', 'frames/subtitle_301.png', 'frames/subtitle_302.png', 'frames/subtitle_303.png'] (298)

结合这项特性,可以处理一些不打算提取时轴的硬骨头
再处理的时候,就可以利用许多成熟的工具,比如 GIMP 什么的进行后期处理再 OCR
a.png
3.7 MB
像这样,其实也可以直接在 OCR 的时候…不,是在拼接的时候直接存个 filename map 直接允许批量处理了再裁回来,再允许直接在这些帧文件上运行 OCR…… 还算简单,毕竟 ocrWithLocalMaxima 这个子程序被抽象为了一个方法,只需要弄一个把帧文件映射回 Frame 对象的程序即可 😂
#Python #CV #code 新程序已经支持,弄法非常简单,只需 dst src* | unpack dst 即可
duangsuse::Echo
a.png
已经支持 --only-images
做法很简单,削掉 peak estimation (postprocessDifferences 和 findPeaks 都赋一个没 self 的 lambda)
然后拿 image inputs 映射到 Frame(no, img, 0)
然后创建 reducer (ExtractSubtitle.DefaultOcrFold) 、 ocrWithLocalMaxima(frames, reducer)reducer.finishAll() 完事