duangsuse::Echo
718 subscribers
4.26K photos
130 videos
583 files
6.48K links
import this:
美而不丑、明而不暗、短而不凡、长而不乱,扁平不宽,读而后码,行之天下,勿托地上天国。
异常勿吞,难过勿过,叹一真理。效率是很重要,盲目最是低效。
简明是可靠的先验,不是可靠的祭品。
知其变,守其恒,为天下式;穷其变,知不穷,得地上势。知变守恒却穷变知新,我认真理,我不认真。

技术相干订阅~
另外有 throws 闲杂频道 @dsuset
转载频道 @dsusep
极小可能会有批评zf的消息 如有不适可退出
suse小站(面向运气编程): https://WOJS.org/#/
Download Telegram
#life #China #huawei #google #tech 这也正是这周我想说的一个话题
Forwarded from METO 的涂鸦板
🔩 Google 将停止向华为提供服务

路透社报道,Alphabet 旗下的 Google 已暂停与华为之间要求转移硬件、软件和技术服务的业务。在此之前,华为已经被美国政府列入贸易黑名单。

受到影响,华为后续的 Android 智能手机将无法访问 Google Play 商店、Gmail 和 YouTube 等热门应用。华为在欧洲的手机市场将遭到重创。

在国内,华为可以继续访问 AOSP 许可的安卓操作系统版本,但 Google 今后将停止向华为提供涉及其专有应用程序和服务的访问权、技术支持和协作。

https://www.theverge.com/2019/5/19/18631558/google-huawei-android-suspension
#Java 立音不应该是这样啊...(才想起来不是羽毛... 羽毛的话就不会感到奇怪的) Oracle Hotspot,现在最流行的 Java 虚拟机,是支持 "反射消除 (de-reflection)" 优化的,只要编程时实践足够好,重复调用的开销应该不大的

实现详见 OpenJDK8 JDK source [Class.java#l3028] [Class.c#L65]
HotSpot JDK8(b132) [src/share/vm/prims/jvm.h#l539]

优化... 我找找

[hotspot/share/jvmci/jvmciCompilerToVM.cpp#L1500] 大概就是这种优化了...
[vmSymbols.hpp#L236] 基于动态字节码生成的反射消除优化,这个其实不在 JVM 层就可以做(只要使用专门的反射库,和支持方法定义替换)

[share/opto/c2_globals.hpp#L590] inline sun.reflect.Reflection.getCallerClass()
Forwarded from 神奇的笔记 (神楽坂 立音)
感觉 Java 反射好像消耗没想象中的那么大....
刚刚写的一个东西,运行50万次反射耗时才80多毫秒,走 Annotation Processor 代码生成之后相同数据40毫秒... 50万次反射差的似乎并不是很多....
Forwarded from duangsuse Throws
#freedom #gnu 什么?什么叫开源软件都是自由软件?(既视感
我之前还以为是黑科技虚拟机层面提供服务支持呢... 说起来我想的和实际的差别可能就是缓存而已,然而其实动态字节码生成已经是一个足够好的方法了。 #Java #JVM
#China #embedded http://www.zhaoxin.com/

🤔 其实国产的『芯片』也不是少数(比如龙芯 MIPS 和 Allwinner),实际对市场使用上有帮助的是少... 要知道和编译器一样,好的 CPU 和辣鸡的 CPU,无论性能、功耗、热功耗、处理特性上都有很大区别

说起来,至于处理器特性,比如 VMx、矩阵运算(SIMD)AVX, SSE、PCI、APIC、Hardware floating points、64 (lm, Long mode, x64 mode)、Hyper threading、某些算法的机器层面支持(比如 aes, sha, rng"random number generator")什么的

说起来我这样的辣鸡对于 CPU 最看的就是逻辑解释器(内核)数目和超线程(对 Intel 芯片来说)数目了
至于处理器平常实现时的多级流水线、数据代码缓存、哈佛架构、实际解释器实现、一个 sadd 指令需要几个时钟周期、支持哪种类型的内存、存储总线类型、使用哪种内存协议什么的我作为一个门外汉也不关心。

我只多看一眼“处理器频率”,好像能做到 2.0GHz, 28nm,很厉害了(超出我对国产芯片的想像...)。

对于智能手机和个人 PC 机来说,可能有些东西国产的高集成电路产品还无法满足吧... 中国的“芯片”的确要赶的还不少,然后我本人就不懂那些电子的东西( 🙈

话说,BLUG, 北京 Linux User Group,应该有几个是学校里有芯片科目的大佬..
想学这种高度集成电路解释器的... RISC-V 是一个开源的 ISA (指令集架构)
duangsuse::Echo
#China #embedded http://www.zhaoxin.com/ 🤔 其实国产的『芯片』也不是少数(比如龙芯 MIPS 和 Allwinner),实际对市场使用上有帮助的是少... 要知道和编译器一样,好的 CPU 和辣鸡的 CPU,无论性能、功耗、热功耗、处理特性上都有很大区别 说起来,至于处理器特性,比如 VMx、矩阵运算(SIMD)AVX, SSE、PCI、APIC、Hardware floating points、64 (lm, Long mode, x64 mode)、Hyper…
被很多人称为芯片的这一类东西,和编译原理、native 编译器工程、操作系统内核、高性能计算、系统编程从来都脱不开关系,尤其是编译器原理,CPU 就是使用集成电路实现的机器代码解释器,但是需要很多的麻烦...
永久封存 | Yuuta 台 | 😷 #Pray4Wuhan
https://blog.yuuta.moe/2019/05/19/create-wtg/
使用了新 Windows (大概自 Windows 7)的一些小工具

DIskPart
用于生成 VHD 虚拟硬盘
  create vdisk file=filename parent=parentVdisk

parent
指定的母盘将作为子盘的原型,之后在子盘上的操作将在母盘的基础上差分压缩(比如子盘只象征对于母盘的 文件新增、删除 修改集合)

DISM (Disk Image utilities)
用于写入镜像到 U 盘
  Dism /Get-ImageInfo /imagefile:C:\install.wim
Dism /Apply-Image /imagefile:C:\install.wim /index:<windowsIndex> /applydir:<VHDPart>
BCDBoot
用于向 U 盘写入 NTBoot 引导加载程序和配置默认启动为 V:
  bcdboot D:\Windows /s X: /f UEFI /l en-us
PowerCfg
  powercfg -h off
禁止系统进行休眠
===
ImDisk
用于生成虚拟内存盘
Forwarded from dnaugsuz
Forwarded from 永久封存 | Yuuta 台 | 😷 #Pray4Wuhan (Yuuta | a.k.a. 鱼塔 🐟)
#sysadmin 说起来之前 #GeekApk 的 VPS 也是 Archlinux 装的...
Forwarded from 永久封存 | Yuuta 台 | 😷 #Pray4Wuhan (加藤日向的大傻瓜加藤乃爱 | 折腾编译中 | 最喜欢妹妹了)
达成成就:在GCE上安装Arch神教
Forwarded from dnaugsuz
说到 Spam 自动分类,除开自然语言处理模式识别这种重量级算法,最好用的就是 Naive Bayes Classifier 了,不过这是一种机器学习算法,我自己也只是会 KNN 机器学习推荐系统而已...
https://zh.wikipedia.org/wiki/%E6%9C%B4%E7%B4%A0%E8%B4%9D%E5%8F%B6%E6%96%AF%E5%88%86%E7%B1%BB%E5%99%A8#%E6%96%87%E6%9C%AC%E5%88%86%E7%B1%BB

反正说到机器学习和人工智能,没有一个是简单的,唉... 😢 #machl
Forwarded from dnaugsuz
数学不好的人碰到尤其是信号处理和机器学习、搞基一点的算法之类就会哭哭的 😭
还是 kNN 好啊,找算法实现大概不是一个困难的事情,难在自己实现这种算法
Forwarded from dnaugsuz
这里有个写的很好的人工神经网络入门《前馈全连接神经网络和函数逼近、时间序列预测、手写数字识别》
dnaugsuz
说到 Spam 自动分类,除开自然语言处理模式识别这种重量级算法,最好用的就是 Naive Bayes Classifier 了,不过这是一种机器学习算法,我自己也只是会 KNN 机器学习推荐系统而已... https://zh.wikipedia.org/wiki/%E6%9C%B4%E7%B4%A0%E8%B4%9D%E5%8F%B6%E6%96%AF%E5%88%86%E7%B1%BB%E5%99%A8#%E6%96%87%E6%9C%AC%E5%88%86%E7%B1%BB 反正说到机器学习和人…
不过,其实完全可以用自然语言处理分词算法再用字典树的说(因为用 HashSet 算法还是太慢了,即使是常量时间判断 has 也不行)

比如说,这个怎么就这么变态的字典里有一个磁:

duangsuse 于 2019 年悼念1989.6.4天anmen事件中死去被屠杀的学生

🌚 怎么就这么反华呢?

分词:

duangsuse(v) 于(p) 2019年(t) 悼念(v) 1989.6.4(m) 天(q) anmen(nx) 事件(n) 中(f) 死去(v) 被(p) 屠杀(v) 的(u) 学生(n)

如果分词后使用集合查询,复杂度是 O(n) * O(1) where n: 输入磁条数,比较慢
如果分词直接上字典树,虽然时间复杂度差一点,而且还是要对每个词条检查,但是性能可能会强一些(因为 hashCode 的 32 位空间很小的,这样 HashSet 判定复杂度会上升很多)