Forwarded from dnaugsuz
求值和执行的区别在于,执行是可能包含副作用的求值,它是求值的超集
任何不以产生返回值为目的的动作,都是副作用
要谈局部(local) 这个词,就要有一种 nonlocal 的存在,比如是全局的(不变量、变量……)
像 IO 这种操作是副作用,但副作用本身不止意味外部状态变量是否 mutate 了,也可以是各种…… 反正最终的一个侧面是,无副作用的东西“执行”和“没执行”,内部是分不出区别的。
Forwarded from dnaugsuz
怎么是魔法,基本 add, sub, mul, div 的补码运算是魔法,但二进制不是魔法,好比 shift left 把每一位二进制都映射到它的下一位,所以
x<<n = x**(2*n) (比如 x<<1 = x**2)一样Forwarded from 不存在的世界
prefix, metavar, nargs, type, default, help 🤔 梳理了 argparse add_argument 的顺序
Forwarded from dnaugsuz
🤔我感觉用
不知道有没有更快的方法,我要对一个色块进行统计,大致就是平均色(单单这个直接用
但还包括对指定背景色的模糊匹配判定,目前的算法是求所有 channel 的 absdiff ,然后有个 threshold 再去看
有没有熟悉计算机2D绘制的大佬可以给建议(
Fold 的 Reducer , Averager 和 MapFold 还是不够优雅,虽然已经解耦很多了不知道有没有更快的方法,我要对一个色块进行统计,大致就是平均色(单单这个直接用
img.resize((m, n), Image.ANTIALIAS) 即可)但还包括对指定背景色的模糊匹配判定,目前的算法是求所有 channel 的 absdiff ,然后有个 threshold 再去看
count < n_pixels*ratio 来的,不知道有没有更快的算法有没有熟悉计算机2D绘制的大佬可以给建议(
Forwarded from dnaugsuz
Fold&Reducer 是“设计模式”,这种东西混在位图处理算法里略略感觉有点不是地方,虽然不用的话代码我看着难受(草
Forwarded from dnaugsuz
其实我觉得直接在平均色上,进行背景色块的判断也比较可取,但准确度可能稍微低了那么一点…… 这个不知道有没有道理。(背景色的 montage 子图是不绘制的)
模糊匹配是在
求了平均值后再 absdiff 精度大概也一样吧?
模糊匹配是在
Image 上 filter (absdiff keyColor) < keyThres 的,然后再判一个 ratio (一般都是 1/2 )求了平均值后再 absdiff 精度大概也一样吧?
Forwarded from dnaugsuz
Python 的 Pillow 提供了 Image.from_array 可以和 numpy 无缝交互,但 cv2.UMat 就没办法和 PIL 的 Image 好好说话了,难不成要自己写 ImageFromUMat / ImageBackUMat (迫真)