512g?太小了
其实我的看法是,在1t以上ssd已经成为未来趋势的现在,全盘slc模拟这种算法即可以让中高端固态获得以往旗舰级别的体验、让旗舰的成本下降(绝大部分用户都不会爆出全盘模拟slc所设下的最低cache空间,这部分看厂商与产品的设计,一般是40g以上),同时又避免了越来越高的存储密度所带来的低容量ssd ce不足,导致原先固定slc算法盘在频繁的写入和读取中带来的性能不足问题。例如姿态 pc005,5g过小的slc cache是其在大部分场景中(尤其是轻载)性能不足的原因,即使他的Steady State稳定态性能区间足够优秀,但是大部分场景下体验并不尽如人意。4.0和5.0时代,面对越来越大的数据吞吐以及读取需求,原先固定容量的slc算法无疑显得有些不够用,而增加tlc直写以及主控性能带来的cost up最终还是要消费者买单。说白了,现在消费者和kol啥也不懂,就整天指手画脚教厂商做事,连全盘slc算法都能爆cache,这负载是不是有些大病,每天都nvme对拷是吧,但凡做个重回放脚本/抓一个io负载分析,都不会和个风沙、老弟水平一样天天缓外缓外。如果真的有高并发下性能一致性的需求,d7 p5510、pm1743、pm9a3、以及 自研主控新秀dapustor的高端系列、各种dc ssd,这些tlc直写以及配备完整掉电保护、超大op冗余、极其稳定的Steady State状态下性能一致性,才是dc hpc ws市场的可靠伙伴,而不是拿着几个消费级固态天天复读缓外缓外、存储行业倒退式发展等狗屁不通的论调。
至于你说的寿命,恰恰相反,因为还存在slc cache到tlc nand之间的write back,所以寿命相较于固定slc以及tlc直写无疑是下降的,尤其是面对高并发、重负载的场景,全盘模拟slc在面对大量吞吐进入Steady State稳定态时,面对同时涌入的大量数据以及cache的write back,主控和dram往往不堪重负,写放大无疑是增加的:特别是dramless SSD,他们的hmb算法压根不足以支持这样级别下的支援。but who f*cking care?现代SSD寿命早已超过绝大部分人的想象,1t 600tbw的标称,足以送走x代人,全盘slc算法对于家用和游戏环境,无疑是一个足够适合的算法。
#丁真吹存储 #基础科普
其实我的看法是,在1t以上ssd已经成为未来趋势的现在,全盘slc模拟这种算法即可以让中高端固态获得以往旗舰级别的体验、让旗舰的成本下降(绝大部分用户都不会爆出全盘模拟slc所设下的最低cache空间,这部分看厂商与产品的设计,一般是40g以上),同时又避免了越来越高的存储密度所带来的低容量ssd ce不足,导致原先固定slc算法盘在频繁的写入和读取中带来的性能不足问题。例如姿态 pc005,5g过小的slc cache是其在大部分场景中(尤其是轻载)性能不足的原因,即使他的Steady State稳定态性能区间足够优秀,但是大部分场景下体验并不尽如人意。4.0和5.0时代,面对越来越大的数据吞吐以及读取需求,原先固定容量的slc算法无疑显得有些不够用,而增加tlc直写以及主控性能带来的cost up最终还是要消费者买单。说白了,现在消费者和kol啥也不懂,就整天指手画脚教厂商做事,连全盘slc算法都能爆cache,这负载是不是有些大病,每天都nvme对拷是吧,但凡做个重回放脚本/抓一个io负载分析,都不会和个风沙、老弟水平一样天天缓外缓外。如果真的有高并发下性能一致性的需求,d7 p5510、pm1743、pm9a3、以及 自研主控新秀dapustor的高端系列、各种dc ssd,这些tlc直写以及配备完整掉电保护、超大op冗余、极其稳定的Steady State状态下性能一致性,才是dc hpc ws市场的可靠伙伴,而不是拿着几个消费级固态天天复读缓外缓外、存储行业倒退式发展等狗屁不通的论调。
至于你说的寿命,恰恰相反,因为还存在slc cache到tlc nand之间的write back,所以寿命相较于固定slc以及tlc直写无疑是下降的,尤其是面对高并发、重负载的场景,全盘模拟slc在面对大量吞吐进入Steady State稳定态时,面对同时涌入的大量数据以及cache的write back,主控和dram往往不堪重负,写放大无疑是增加的:特别是dramless SSD,他们的hmb算法压根不足以支持这样级别下的支援。but who f*cking care?现代SSD寿命早已超过绝大部分人的想象,1t 600tbw的标称,足以送走x代人,全盘slc算法对于家用和游戏环境,无疑是一个足够适合的算法。
#丁真吹存储 #基础科普
半夜写点东西,对于现在ssd市场的一些迷思吧。
部分消费者一定要买mlc、迷信mlc,其实是被很多半桶水的kol带进了坑里,事实是:高端硬盘对消费者的提升很小、即使是企业级也不会有一定要mlc这种奇怪的要求,只需要看性能是否满足需求就好。mlc也好、tlc也好、slc也好,都只是nand运行工作模式,实际性能还要结合主控、固件的策略并实际测试才知道,云出mlc ssd性能和稳定性就一定更好不可取。
现在即使是高并发高带宽的io型dc,也是大dram/optane/znand去做cache,然后tlc/qlc/hdd去做数据盘的分层方案。实际上在dc ssd市场,64l的时候已经大规模转向tlc了,96l实验性引入部分qlc产品,128/112/144l时代qlc将会是主流。Intel除了optane dc之外,最高端的ssd就是d7系列,是tlc;Samsung除了znand(slc)系列外,最高端的盘pm9a3,也是112l tlc(v6 vnand);micron、sk、东芝等flash厂也是这样的情况。如今nand运行在tlc模式,性能就足够达到客户的需求,要追求绝对并发性能自然有采用分级存储做cache的方案,Samsung的znand、东芝的xl flash、Intel的optane以及dram去做cache,各家厂商都有很多的低密度超高性能sku。
追求存储密度、性能、价格的平衡,是消费者与企业的共同选择。idc尚且更看重稳定性和性能,都大规模使用tlc/qlc产品,消费级那点需求又何必一定要mlc呢?终究还是要回归性能和需求去。至于怎么认知ssd、衡量ssd,我文章已经有些了。
#丁真吹存储 #基础科普
部分消费者一定要买mlc、迷信mlc,其实是被很多半桶水的kol带进了坑里,事实是:高端硬盘对消费者的提升很小、即使是企业级也不会有一定要mlc这种奇怪的要求,只需要看性能是否满足需求就好。mlc也好、tlc也好、slc也好,都只是nand运行工作模式,实际性能还要结合主控、固件的策略并实际测试才知道,云出mlc ssd性能和稳定性就一定更好不可取。
现在即使是高并发高带宽的io型dc,也是大dram/optane/znand去做cache,然后tlc/qlc/hdd去做数据盘的分层方案。实际上在dc ssd市场,64l的时候已经大规模转向tlc了,96l实验性引入部分qlc产品,128/112/144l时代qlc将会是主流。Intel除了optane dc之外,最高端的ssd就是d7系列,是tlc;Samsung除了znand(slc)系列外,最高端的盘pm9a3,也是112l tlc(v6 vnand);micron、sk、东芝等flash厂也是这样的情况。如今nand运行在tlc模式,性能就足够达到客户的需求,要追求绝对并发性能自然有采用分级存储做cache的方案,Samsung的znand、东芝的xl flash、Intel的optane以及dram去做cache,各家厂商都有很多的低密度超高性能sku。
追求存储密度、性能、价格的平衡,是消费者与企业的共同选择。idc尚且更看重稳定性和性能,都大规模使用tlc/qlc产品,消费级那点需求又何必一定要mlc呢?终究还是要回归性能和需求去。至于怎么认知ssd、衡量ssd,我文章已经有些了。
#丁真吹存储 #基础科普
SNIA 2023 SUMMIT
演讲资料网盘分享
https://pan.baidu.com/s/1aMWI0bp0S8hwPbFRqIl9yw?pwd=e2wp
提取码:e2wp
官网来源 https://sniacmssummit.org/
演讲资料网盘分享
https://pan.baidu.com/s/1aMWI0bp0S8hwPbFRqIl9yw?pwd=e2wp
提取码:e2wp
官网来源 https://sniacmssummit.org/
用手头的廉价温度探头测试了下9210b+600P 256G硬盘的温度,回报值差距还是比较大的。
空载下temp record 21度,controller端测得29,nand测得31度
out of slc cache进入660p的折叠模式后,temp record 从39逐渐上升到43度,controller为43度,nand为47.1度
#丁真吹存储
空载下temp record 21度,controller端测得29,nand测得31度
out of slc cache进入660p的折叠模式后,temp record 从39逐渐上升到43度,controller为43度,nand为47.1度
#丁真吹存储