今日份的💩:几台服务器一起出维修工单,但又写着「无需处理」,通过后某自动化程序强制umount了数据盘,还把
贵司怎么还没死啊🤮
/etc/fstab
橄榄了,服务大爆炸。贵司怎么还没死啊🤮
果然晦气不会在周末终结。周四切到贵司某「极致易用性、高性能、极致弹性」的自研产品,周日凌晨一点就被加急说这玩意烂了😅
怎么说呢,贵司很多东西造出来纯粹是恶心人,既完成了自己的OKR,又阻止别人完成OKR,计划通。
怎么说呢,贵司很多东西造出来纯粹是恶心人,既完成了自己的OKR,又阻止别人完成OKR,计划通。
实属当了回大聪明。贵司在推IPv6单栈适配,又典中典只给每台机器/128的地址,访问IPv4又是刚需,一通推导下来,必须搞点隧道。
首先试了试WireGuard,没成想贵司魔改内核直接阉了
突发奇想自己写封装,用TUN设备加UDP包装,Go写出来无加密也只有1.5 Gbps。回到梦开始的地方,C写UDP socket还是才3 Gbps。一profile内核时间拉满,原来是TUN性能极度不堪。
于是看了看Linux网络栈架构,发现TC能提供eBPF的环境在内核虚拟机里玩弄数据包。搞了两天升到5.10内核终于跑通单向封装,POC能提供12 Gbps的带宽。可是比起25 Gbps网卡还是擀面杖搅洗衣机。
正当不知是否要继续缝合这滩C➕Python➕Go的奇美拉,忽然想起老熟人GRE,现成的内核模块级隧道,我还写个毛。一测直接跑满链路速度,牛逼。而且Linux的GRE支持多对多,比当年玩的企业圾网关舒服多了。
首先试了试WireGuard,没成想贵司魔改内核直接阉了
wireguard
模块,wireguard-go
速率低至1 Gbps。突发奇想自己写封装,用TUN设备加UDP包装,Go写出来无加密也只有1.5 Gbps。回到梦开始的地方,C写UDP socket还是才3 Gbps。一profile内核时间拉满,原来是TUN性能极度不堪。
于是看了看Linux网络栈架构,发现TC能提供eBPF的环境在内核虚拟机里玩弄数据包。搞了两天升到5.10内核终于跑通单向封装,POC能提供12 Gbps的带宽。可是比起25 Gbps网卡还是擀面杖搅洗衣机。
正当不知是否要继续缝合这滩C➕Python➕Go的奇美拉,忽然想起老熟人GRE,现成的内核模块级隧道,我还写个毛。一测直接跑满链路速度,牛逼。而且Linux的GRE支持多对多,比当年玩的企业圾网关舒服多了。
末影随想
实属当了回大聪明。贵司在推IPv6单栈适配,又典中典只给每台机器/128的地址,访问IPv4又是刚需,一通推导下来,必须搞点隧道。 首先试了试WireGuard,没成想贵司魔改内核直接阉了wireguard模块,wireguard-go速率低至1 Gbps。 突发奇想自己写封装,用TUN设备加UDP包装,Go写出来无加密也只有1.5 Gbps。回到梦开始的地方,C写UDP socket还是才3 Gbps。一profile内核时间拉满,原来是TUN性能极度不堪。 于是看了看Linux网络栈架构,发现T…
不过学到不少,TC里直接艹skb,还有BPF/XDP在网卡上运行filter代码,说不定哪天就用得上。
如果整天光在贵司CRUD,迟早哪天泯然傻逼。
如果整天光在贵司CRUD,迟早哪天泯然傻逼。