prefix, metavar, nargs, type, default, help 🤔 梳理了 argparse add_argument 的顺序
Forwarded from dnaugsuz
🤔我感觉用
不知道有没有更快的方法,我要对一个色块进行统计,大致就是平均色(单单这个直接用
但还包括对指定背景色的模糊匹配判定,目前的算法是求所有 channel 的 absdiff ,然后有个 threshold 再去看
有没有熟悉计算机2D绘制的大佬可以给建议(
Fold 的 Reducer , Averager 和 MapFold 还是不够优雅,虽然已经解耦很多了不知道有没有更快的方法,我要对一个色块进行统计,大致就是平均色(单单这个直接用
img.resize((m, n), Image.ANTIALIAS) 即可)但还包括对指定背景色的模糊匹配判定,目前的算法是求所有 channel 的 absdiff ,然后有个 threshold 再去看
count < n_pixels*ratio 来的,不知道有没有更快的算法有没有熟悉计算机2D绘制的大佬可以给建议(
Forwarded from dnaugsuz
Fold&Reducer 是“设计模式”,这种东西混在位图处理算法里略略感觉有点不是地方,虽然不用的话代码我看着难受(草
Forwarded from dnaugsuz
其实我觉得直接在平均色上,进行背景色块的判断也比较可取,但准确度可能稍微低了那么一点…… 这个不知道有没有道理。(背景色的 montage 子图是不绘制的)
模糊匹配是在
求了平均值后再 absdiff 精度大概也一样吧?
模糊匹配是在
Image 上 filter (absdiff keyColor) < keyThres 的,然后再判一个 ratio (一般都是 1/2 )求了平均值后再 absdiff 精度大概也一样吧?
Forwarded from dnaugsuz
Python 的 Pillow 提供了 Image.from_array 可以和 numpy 无缝交互,但 cv2.UMat 就没办法和 PIL 的 Image 好好说话了,难不成要自己写 ImageFromUMat / ImageBackUMat (迫真)
Forwarded from Aelita Lyoko
https://t.me/dsuse/13572
可以先从umat转换到numpy,再转换到pil
因为umat的数据可能会在显卡之类的外部设备上,不是普通的主机内存数据
显卡之类的设备内存空间的数据要先通过pcie总线拷贝回主机内存空间,然后才能转换到其他库的内存上去
很少有显卡设备上的数据在两个不同库之间发来发去的,我觉得原因应该是因为显卡内存块是有上下文ctx的,而主机内存里的数据,只要alloc和free对应使用相同版本的实现一般就不会有问题
可以先从umat转换到numpy,再转换到pil
因为umat的数据可能会在显卡之类的外部设备上,不是普通的主机内存数据
显卡之类的设备内存空间的数据要先通过pcie总线拷贝回主机内存空间,然后才能转换到其他库的内存上去
很少有显卡设备上的数据在两个不同库之间发来发去的,我觉得原因应该是因为显卡内存块是有上下文ctx的,而主机内存里的数据,只要alloc和free对应使用相同版本的实现一般就不会有问题
Telegram
duangsuse::Echo
Python 的 Pillow 提供了 Image.from_array 可以和 numpy 无缝交互,但 cv2.UMat 就没办法和 PIL 的 Image 好好说话了,难不成要自己写 ImageFromUMat / ImageBackUMat (迫真)
Forwarded from Aelita Lyoko
py抽象得有点过分,所以不知道缘由的话很难明白为什么会这样设计
如果用过opencv的c++接口你就会明白mat和umat的不同之处了
如果用过opencv的c++接口你就会明白mat和umat的不同之处了
Forwarded from dnaugsuz
其实我晚上下去散步的时候结合之前看到的一些代码也想到了这个无厘头的方式,不过把它当笑话了
毕竟 UMat <-> ndarray <-> Image 感觉有点太嵌套了
毕竟 UMat <-> ndarray <-> Image 感觉有点太嵌套了