tiplus没有用232l乃至YMTC 232L不存在,其实是一个误传
techinsight只说他们没有在他们购买的Tiplus7100发现,而是看到了一个ymtc 128l的提速版本。
至于完整的232l,一直存在,但是市面上大部分的都是挂羊肉卖狗肉,绝大部分原封nand都已经tob了
#丁真吹存储
techinsight只说他们没有在他们购买的Tiplus7100发现,而是看到了一个ymtc 128l的提速版本。
至于完整的232l,一直存在,但是市面上大部分的都是挂羊肉卖狗肉,绝大部分原封nand都已经tob了
#丁真吹存储
👍1
我可能错怪Apple了,明天会写个文章详细说说MacBook的存储性能与策略,这是一套极其激进而疯狂的实现。
这也是你在网上看到最深的关于MacBook arm的存储测试与分析
这也是你在网上看到最深的关于MacBook arm的存储测试与分析
🤔7👍2
硬件观察 VER3.0 With HOMOLAB pinned «https://telegra.ph/Macbook-Pro-storage-test%E8%B6%85%E9%AB%98%E4%BB%B7%E6%A0%BC%E5%A5%87%E5%A6%99%E7%AD%96%E7%95%A5-06-15 MacBook pro storage test #丁真吹存储 #评测»
4k read level(1).png
249.9 KB
而在更加实际的混合负载:4K 7R3W典型读写中,呈现出了与理论测试完全不同的结果。
首先我们看OIO4下的表现,CM6V拉开了其他盘体一大截,达到了67k iops,netlist1951为46k iops,其他几块盘集中在25-30k之间,令人比较意外的是,在OIO4 100%read的负载下PC801为70k,但在7R3W下仅仅只取得了26k的成绩。
显然client与enterprise的差距并不只在稳态写入上,在混合负载中依然存在与理论值较大差距,其实这也可以理解,这不只考验nand本身的性能,综合负载对FTL表的优化、磨损均衡的处理、数据流处理优先度都提出了极高的要求,这也是单纯测试理论带宽的问题所在。
我们接下来看到OIO256的情况,在这里PC801不出意外的出意外了,在OIO256 100% random read达到1200k的他仅仅在混合负载下取得了57K的成绩,这是令人震惊的失败,也证实了我上面的想法:混合负载不是简单的数字加减,而是一个高不可知的综合场景。在这里CM6V同样取得了极高的性能水准,拿到了795K iops,其次是netlist1951,357k iops的成绩落后了一大截。比较令人震惊的是P4500的表现,在OP前他仅有100k iops,这是一个不优秀甚至相对较差的成绩,而op to 1.4t则达到了281k iops。到底是什么造成了这个的差距?我由于没有接触过P4500 3D1的固件与设计,因此对此并不清楚,但是可以看到的是:32L/2D MLC时代的读密集盘体,即使在相对混合的负载下,也依然表现不佳,尤其是与64L及之后的现代产品相比。
受限于时间关系,我不太想分析包含SQL ltpo 7R3W 8k等混合负载的具体数据,有兴趣的童鞋可以私聊我。
观察整体的性能表现,我们可以得到两个结论:
1 全读或全写的表现未必能反应实际workload下的性能指标
2 2D与3D1 32L时代的产品与目前现代读密集盘存在着巨大的差距,更别说写密集形或混合密集设计的高OP冗余产品了
而单纯谈论Nand上的表现,可以说3D1并不差,尤其是相较于2D时代而言,他的nand性能进步幅度是正常的,而密度提升则相较于2D时代实现了巨大的飞跃。唯一的问题在于:64L时代的提升过于爆炸,以至于人们一致的认为这才应该是历史的常态。
#评测
首先我们看OIO4下的表现,CM6V拉开了其他盘体一大截,达到了67k iops,netlist1951为46k iops,其他几块盘集中在25-30k之间,令人比较意外的是,在OIO4 100%read的负载下PC801为70k,但在7R3W下仅仅只取得了26k的成绩。
显然client与enterprise的差距并不只在稳态写入上,在混合负载中依然存在与理论值较大差距,其实这也可以理解,这不只考验nand本身的性能,综合负载对FTL表的优化、磨损均衡的处理、数据流处理优先度都提出了极高的要求,这也是单纯测试理论带宽的问题所在。
我们接下来看到OIO256的情况,在这里PC801不出意外的出意外了,在OIO256 100% random read达到1200k的他仅仅在混合负载下取得了57K的成绩,这是令人震惊的失败,也证实了我上面的想法:混合负载不是简单的数字加减,而是一个高不可知的综合场景。在这里CM6V同样取得了极高的性能水准,拿到了795K iops,其次是netlist1951,357k iops的成绩落后了一大截。比较令人震惊的是P4500的表现,在OP前他仅有100k iops,这是一个不优秀甚至相对较差的成绩,而op to 1.4t则达到了281k iops。到底是什么造成了这个的差距?我由于没有接触过P4500 3D1的固件与设计,因此对此并不清楚,但是可以看到的是:32L/2D MLC时代的读密集盘体,即使在相对混合的负载下,也依然表现不佳,尤其是与64L及之后的现代产品相比。
受限于时间关系,我不太想分析包含SQL ltpo 7R3W 8k等混合负载的具体数据,有兴趣的童鞋可以私聊我。
观察整体的性能表现,我们可以得到两个结论:
1 全读或全写的表现未必能反应实际workload下的性能指标
2 2D与3D1 32L时代的产品与目前现代读密集盘存在着巨大的差距,更别说写密集形或混合密集设计的高OP冗余产品了
而单纯谈论Nand上的表现,可以说3D1并不差,尤其是相较于2D时代而言,他的nand性能进步幅度是正常的,而密度提升则相较于2D时代实现了巨大的飞跃。唯一的问题在于:64L时代的提升过于爆炸,以至于人们一致的认为这才应该是历史的常态。
#评测