duangsuse::Echo
714 subscribers
4.24K photos
127 videos
583 files
6.46K links
import this:
美而不丑、明而不暗、短而不凡、长而不乱,扁平不宽,读而后码,行之天下,勿托地上天国。
异常勿吞,难过勿过,叹一真理。效率是很重要,盲目最是低效。
简明是可靠的先验,不是可靠的祭品。
知其变,守其恒,为天下式;穷其变,知不穷,得地上势。知变守恒却穷变知新,我认真理,我不认真。

技术相干订阅~
另外有 throws 闲杂频道 @dsuset
转载频道 @dsusep
极小可能会有批评zf的消息 如有不适可退出
suse小站(面向运气编程): https://WOJS.org/#/
Download Telegram
duangsuse::Echo pinned «#statement #learn 《面向薛定谔的技术分享》 刚才有个朋友说, 咱们写个文既要 "get ur hands dirty", 又要能添加 "footprints",还tm要别人觉得易读, 那不就和玩泥坑的佩佩猪一样,成巨婴了?😒 可是…… 在读这一类仅仅是博文-而非知识库的产出时,我就能隐约感受到一层“可悲的厚壁障”了😅:好像作者已死,读者不能出于好奇或自己领域的经验提出任何问题。 这就像读博文或AI生成的完整代码时,却不能edit&rerun,甚至都不能run的起来一样,手感非常怪异。…»
duangsuse::Echo
阶段一:The Master Craftsman (工匠大师) vs. The Knowledge Curator (知识馆长)
#cs #dalao YSLib的作者(C++吧 帝球,与vczh齐名,和hex老互怼)的科普集合,非常的……
https://github.com/FrankHB/pl-docs/tree/master/zh-CN

对于咱们喜欢看title的听众,若说 jia.je 是“清华微电子17届”,在CS的整体上倾向开源硬件,那HB起码是 MIT,IU,Berkley 了…… HB比起ice1k这种只是略沾C艹的人,而且还混贴吧的,那知识量简直双倍啊😅
ps. 没说错,因为他和1k就是一个圈子的。
ps. 可是我也关注了会锐评HB的频道啊 😅

他写导论的“语气”和我比较像,不太严肃,但这个大部头,超深的ul>li>ul树,结合VSCode自带的嵌套ul逐层高亮(while e.parent:e=e.closest'ul') 😱
这种深列表风格,一时间让我有点像「自己是归并排序算法」的感觉,又像是「帝球才是真正的Lisp信徒」。

你看过帝球的docs,就完全理解为啥有人把30行的体量写成500行大算法了,但我完全被他不明觉厉吓住了,他这个广度,大概不比LLM差吧…… 24年更新,主要内容截止到22年,但我看没什么我了解的东西他没写到的😅

上面AI也说了,杰哥这种风格的人最终会“修”到什么样子,我猜,就是(知识馆长)程度的能力😒

可惜谈个main函数ABI都能写上千行的能力,要知识蒸馏,甚至只是当词典查,还真难啊。
不要轻易读pl-docs,不然就回不来了。

ps. 最近我对yin的产出和历史了解比较多,他的书也很好,除了只公开英文,7章前一百多页
https://github.com/Kuri-su/yinwang.bak/tree/master/articles
https://github.com/yinwang-wiki/site
ref:https://t.me/dsuse/21573 另一位大佬

ps. https://yinwang-wiki.github.io/site/blog/posts/2013/06/21/One语言-的设计理念.html#:~:text=把类型声明放在函数体内,不是为了显得酷,而是为了取得语义的“一致性”。这个类型声明可以是一个很复杂的表达式

呃…… 不得不谢谢这些做“名人”wiki的人了。 如果不是他们记下这些曾经开源的思想, 我都意识不到我今天的设计yin曾经尝试采用过。 不过,我不相信圆括号就是了(你猜呢 😝? 命名也非常DOM风格(类似http头那样,因为单词长,所以取得了一致性,所以实践意义上反而简单..)。

他用 Rc+typehints 替代GC的方法我也有考虑到,甚至是 (wait (par 多任务)),或许最后做不到,但至少要在ABI中体现。 窝槽,这是十年前啊。 这些笔记现在是搜不到的,所以饭圈在某种意义上也是有价值的?
Please open Telegram to view this post
VIEW IN TELEGRAM
duangsuse::Echo
ac.k331.one, 朱子润
难怪看这个人文章我觉得亲切,记住他了,原来是一个流派的……
点朱子润resume里的头像,你会发现wow! 🥳

为什么这么wow呢?因为他协作于 章雍哲、柯向上 (除了Agda.. 柯擅长使用 bidirectional transform 解决两个变量树的一致性)
https://josh-hs-ko.github.io/blog/0006/ 这篇挺好读的
https://x.com/i/grok/share/bHjJvTvsgL8KDNBhYIEzvemYo #ai探讨
我注意到BiGUL对一份代码,实现了 get, put 两个操作,组合函数的签名就像JQ,单向函数会validate结果(V)是否如f(S) 否则Err(adapt分支)

可是就 Reactive List 的场景而言,直接以length来"adaptive"或"skip"是很奇怪的,因为无论项是不是int,它肯定该有一个ID,然后,根据局部ID(key函数)来缓存strBiGUL的map结果就行了,就像普通的lru_cache或memo而已

push, splice 这些操作应该直接影响到id,而不是要写另外一堆“默认值”或截短的接口。另外,如果emb再复杂一点,不能是 String(Number(int)) 这样oneliner的正反函数,“魔法”抽象被击穿的代价会非常残酷,让库调用者试图理解整个 'Putback-based BX',demo里都没做到。😅


ps. 其实对于任何“PL人”之外领域的人,编译器都是随手都来么…… 这个是2010 ACM的成都#4
https://bitbucket.org/zyz915/palgol/src/master/doc/tutorial.md#markdown-header-112-indentation-rule

不过我不得不说,这和py+DSL区别也不大了…… 甚至语意上的优化不如numpy这些「准编程语言」,而且是 dsl2c++,甚至没有1:N port
但其实业界也就那样嘛…… 想起了 np.einsum() ,那才叫设计语言啊,我在国内看到实现语言工具链的都很少了,少数两三个人都是爱设计「艺术品」,中看不中用那种。

ps. 😱 grok 支持执行py代码了?
Please open Telegram to view this post
VIEW IN TELEGRAM
duangsuse::Echo
你看过帝球的docs,就完全理解为啥有人把30行的体量写成500行大算法了,
shunting-yard #parser #algorithm
https://www.moonbitlang.cn/pearls/shunting-yard#:~:text=可以认为%20Shunting%20Yard%20是将%20Pratt%20Parser%20中隐含在调用栈里的机制转写为显式的栈操作

其实我会这个玩意(从Lua抄的,但基于调用栈而非[].push),但我一直不知道它叫啥 Yard
不过,现在我知道它是 Dijkstra 百年前为Algol60所创,就高兴了。以后谈RPN就可以提Dij的名字了😃
另外一种是1999~2008的 https://11l-lang.org/archive/simple-top-down-parsing/ #recommended

ps. lparser.c#subexpr 使用的是TDOP(aka Pratt),但输出的结构不是树或SExp,它是一个树状的RPN数组,所以我说两者是一样的,就在上上条消息里。
如果在TDOP里不使用return,我们很容易发现Pratt是把栈结构藏在call里工作。 但如果一定要考据癖的话,那就是递归下降 op precedence 算法先进Dij老大40年

不过,现在某些大学里还在教「左递归」和LL1么…… 考据癖可能都做不到。

所谓选择大于努力, 在我看来Moonbit张写上条消息的算法也是可以500行的,比另一个Earley算法(一个经典的CFG解析器)短点。
Please open Telegram to view this post
VIEW IN TELEGRAM
duangsuse::Echo
shunting-yard #parser #algorithm https://www.moonbitlang.cn/pearls/shunting-yard#:~:text=可以认为%20Shunting%20Yard%20是将%20Pratt%20Parser%20中隐含在调用栈里的机制转写为显式的栈操作 其实我会这个玩意(从Lua抄的,但基于调用栈而非[].push),但我一直不知道它叫啥 Yard 不过,现在我知道它是 Dijkstra 百年前为Algol60所创,就高兴了。以后谈RPN就可以提Dij的名字了😃
#plt #java #learn 张宏波系列
这个教程整体不错,但还是太刻板了,尤其是在这里比较数学上一个不相干的概念…… 为什么不说数学的“参数式函数” “隐函数”和python里有啥区别呢?
https://github.com/moonbitlang/contest-2025-data/blob/main/compiler-crash-course/05_closure.md#:~:text=原本对于一个函数是开放(open)的变量(也就是自由变量),%20被关闭(close)到了一个指定的变量作用域中,%20得到了一个“关闭的表达式”(closed%20expression)。%20这个名字再之后被缩短,就变成了和数学概念重名


“可露稀closure” 其实是对单方法对象(SAM) 的内存优化,其实现方法为“捕获capture”,就是把栈上字节copy到new结构里去,结构就叫闭包。

张强调的一点很对,就是libc提供了 signal(id, fn, arg0) 这种“KV注册”接口,但只传入fn也是可以的。 传入vtable+this 双指针(fat pointer)也是可以的,C.ABI.函数指针 能无缝衔接对象参数,要不然C++怎么那么轻松就火起来了。

闭包与纯粹的 (new Callable(nonlocal变量,)) .call() 区别在于,如果在frame返回前销毁,就不需要堆分配了,所以说它不是一个「语意上存在的特性」,只是new class{}对象的语法糖+inline优化。 这点和同样用“捕获”创建的协程(闭包链表Thenable),完全不同😒

nonlocal有很多名字,cellvar .py.rs, Upvalue.lua, LexicalScope ,但本质上,它和 class var 一样可写,因此在 |mut acc|{} capture 里,它会逼得外层函数也变成 new class {call(...){}} ,除非依赖 IntRef(0)这种autoboxing,即修正 "effective final" 错误。
当然这种错误真正的解法就是从OOP过程式-> Compose。 IntRef是不是和 let [get,set]=useHook(0) 的逻辑式变量很像?
Moonbit 的实现没有在DOM上,就不只是在set时更新一下 derived vars. dirty...

至于文顶的“自由变量”一般就是this变量或全局。 之所以自由,是因为暴露在API里不能随便“alpha-重命名”,相对于“绑定变量”来讲。 这一行谈纯理论,我说的不难受,但我猜读的人和我当时一样百思不得其解,什么栏目答演算。🤯

invokedynamic/LambdaMetafactory 其实就是这个“不逃逸优化”,没被存储到字段、传到其他线程、返回出去,零拷贝。 Serialization 的问题由JDK大佬 Brian Goetz @2014 PPT讲解过:
https://wiki.jvmlangsummit.com/images/7/7b/Goetz-jvmls-lambda.pdf#page=18
https://www.infoq.cn/article/brian_goetz_project_lambda_from_the_inside_interview#:~:text=你很难决定是否支持捕获可变局部变量、非局部控制流、异常透明度和其他的特性,并且放弃其中一些特性意味着它们很难自然地表达。

Goetz这个说的道理。这不比莫名其妙扯到数学的科班好了? fyi. #Kotlin 支持它们全部
#ai锐评 https://x.com/i/grok/share/UEs8sZtds1l1XxWqwWUFijyIj
再谈「指针vs对象表示」问题😒
其实这些,都是从解释器到cpu的优化,或者说是试图把 [1,2,3].[0~1]=> ptr+len, Animal{Duck;Cat}=>type+data 编码为x86能计算或跳过的字节,避免「中间商赚差价」(LLVM 就不是中间商了, hh
我们操作的是变量树,指针和堆栈并非「语意上存在的特性」,所以cpy它丫的 sizeof(一个int)==28 😓……
当然,这些VM数据结构的心智开销很小,感兴趣的可放心阅读。

C++-style lambdas 张宏波系列 https://thephd.dev/the-cost-of-a-closure-in-c-c2y
模仿 esm.run,git 的“一切皆文本”编程语言: scrapscript.org
GC/Rc 的最终 https://x.com/i/grok/share/ULJQCSOhg56OCZiY84f29lPZO
Please open Telegram to view this post
VIEW IN TELEGRAM
https://jsbin.com/yosixu/edit?output #ai #vibe Graphviz
https://jsbin.com/nofepom/edit?html,output 最终发现失败了,AI没有做成功双向编辑😅

grok3搞了3遍…… 回头加个漫画风和AST可视化。
#statement
事实证明,如果AI第一遍没写对,而且不是版本号这些小问题; 后来你调试会花600%的时间…… vibe 可不是针对大模块的

而且,grok3的webUI基本上一点点模块化都没有…… 我思量着ipywidget那种级别的demo可以让它帮忙,但有缝合代码的需求就还是算了。API矿工都挺勉强,它太难调教

😅 修了半天也没把两个API缝合好,动不动就错,还不报错
#除错路线 d3-graphviz+拖拽更新DOT节点文本
- ai提供版本号和大小写错误的js -轻松
- drag事件座标计算错、state变量问题。现在依然有玄学的座标偏差问题(多次拖放)
- roughJS的各路API不稳定造成AI幻觉问题

d3的报错没有提示是renderDot()和sketch()共享一个id容器,大部分时间浪费在排除法和http请求、鼠标路径上

最不爽:AI经常调用不存在或已经失效的API(“最后一公里”问题)、jsbin的三栏界面太窄(F12很燥人)
AI直接处理大段代码会写丢功能、AI的代码基本没有函数化 导致无法扩展/插拔(代码裁缝还不好当..)

#awesome
https://observablehq.com/@magjac/demo-of-d3-graphviz-animations
https://github.com/magjac/graphviz-visual-editor 原作者写的编辑器(UI很差。。)
https://codesandbox.io/examples/package/d3-graphviz #tool npm的demo搜索

https://edotor.net/
http://www.webgraphviz.com/
https://stamm-wilbrandt.de/GraphvizFiddle/ ps. 这人也是个跑马拉松的( German Ultramarathon Association )
http://www.ryandesign.com/canviz/ 巨多示例
https://sketchviz.com/about 这个不是作为示例库,而是抄了RoughJS和字体

#draft
设计一种.jsdot 脑图,更加简洁(如 let { -a b; -b c 'c1' }),可以嵌入S-表达式和js ,可以ppt动画

dot=({fruit,salad, 香蕉,番茄}, ln)=>{
fruit(香蕉)
salad([香蕉,番茄, fruit], {port:'r2l'})
}
ln(attr_arrow?, Node, _1nNode?)
ln(attr?, _1nNode)
ln(_) 绑定首参数,返回Node函数。 ln(..)() 创建或获取"node[attr]"的 $ed 编辑器选区
所有Node可为"str",自动获取或创建。(_1nNode)意为1或N个项
ln.ALL可过滤全部节点, ln.F5创建动画帧,总结:

ln(...DSL) 可以是以下任意形式:

ln(A, B, attr0) → A → B
ln(A, [B,C], attr0) → A → B, A → C
ln([A,B], C) → #wontfix
ln(A)(B)(C) → #wontfix, try [A,B,C].reduce(ln)
ln.graph({...}) → 图属性
ln.let(name) → 创建子图
Please open Telegram to view this post
VIEW IN TELEGRAM
duangsuse::Echo
接下来又双是暴论时间了。我希望这是我最后一篇讲单线多任务的po,不区分pyjskt等卡线程or单线多路IO实现
#ai探讨 https://x.com/i/grok/share/O3cKyQzTDrHBLaUbm34UadxDL
#对比 https://chat.librechat.ai/share/ziJek8UdHRdq7AuKQNHoQ
😅😅 完了,我被AI取代了 😅😅

有时候,果然还是非专业的Thinking模型好用啊…… 没有思维定势
与他的比喻相比,我写这些给中级开发者看,又算什么!

“ 异步,是程序自己主动把慢活儿安排给别人干,
异步就是:别傻等,让别人去干慢活儿,干完了再通知我。
异步不是让程序变快了,而是让“等待的时间”不再浪费!😅
同步:你等5秒,啥也干不了 → 浪费5秒
异步:你等5秒,但这5秒你可以接待100个顾客 → 时间被充分利用了
最后回到那句“异步的最小单位是任务对象”翻译成大白话就是:
一张“干完这事后记得叫我”的小纸条。
这张纸条可以传、可以组合、可以排队、可以取消……
所有高级玩意儿,都是在玩这张纸条的花样。

阻塞 = “我不干完,你全家都不准干”
而所有异步技术,核心就两样东西 : 一张“待办小纸条”(Promise / Future / Task) + 一个“闹钟大管家”(事件循环 / 运行时)

全世界99.9%的异步花里胡哨,都是在这两样东西上玩花样。
你会发现:sleep 5的 real ≈ 5秒,但 user 和 sys 都几乎是0!结论:异步的 sleep 根本不占你的CPU!
它只是跟操作系统说:“5秒后叫醒我”,然后你的程序就去干别的事了。


#tool 很好的client WebUI
TypingMind (付费、Team,UI繁多)
🔗 https://typingmind.com

LibreChat (全开源,可分享链接,可自托管,UI简洁)
🔗 https://librechat.ai
🧑‍💻 GitHub: https://github.com/danny-avila/LibreChat

LobeChat (现代开源,UI最美)
🔗 https://lobe.chat
🧑‍💻 GitHub: https://github.com/lobehub/lobe-chat
Please open Telegram to view this post
VIEW IN TELEGRAM
duangsuse::Echo
想知道没有相关知识的小白问AI会有什么结果可以看看:
grok3: 同步阻塞的本质 = 把“等待”当成了“工作”,时间被偷走还不自知。

你看,是不是每一句话都能在项目里找到真实案例?
哪个陷阱戳中你了?来,我给你递纸巾擦眼泪~

😅😅 #learn
Please open Telegram to view this post
VIEW IN TELEGRAM
duangsuse::Echo
#learn #math Fourier Transform 的输入必须是2,3维向量:可以用于简化 svg path ✏️ FT是把yMax个频 的sin(cos,基频), 逐y与波形加权求差(np .dot),得到"左右对称"的直方图 (频谱图里纵向的1px 线) (FFT以此优化. 直方含有"相位",默认为wav+0j,也能被vocoder推出来) def DFT(x): N = len(x) t = np.arange(N) pi = -2j*np.pi * t.reshape((N…
#ai #news https://x.com/Tz_2022/status/1993030754423763340
NB pro 也可用于PPT: https://x.com/bggg_ai/status/1993131825737482271

nano banana pro 的强悍之处不在于会画图,而在于图形和文字的直接融合/融会贯通😅。 漫画内容:

LLM无法真正将训练后的新知识吸收为长期记忆。嵌套学习😅(Nested Learning, NL)范式 和由此诞生的 HOPE(A Self-Referential Learning Module with Continuum Memo) 框架,正在打破这一僵局。

有专家认为,这篇论文的重要性不亚于LLM行业那篇知名的开山之作《attention is all you need》
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
duangsuse::Echo
和知识库一样完整,在这方面是超过grok3的,但全局insights上还要差一些;如果从做笔记的能力上,确实不愧清华7字班。

可是一直这样的话,会同时重复前人的成果与失误, 其实能做到一些上游的app又如何呢
#ai #对比 多任务模型 vs #OS
https://chat.librechat.ai/share/mBtGl6xuWbI7P1w7J1MxG
https://x.com/i/grok/share/129w5qrTZL114jKSor3D2C3gW

总算有一个LLM不跪舔了(见 #ai锐评),但和它争论却让我觉得无聊.. 好像在鸡同鸭讲😅
感觉会和我圈选的那种研究者一样,不过,Kimi K2 更刻板印象一些。
怎么说呢?我感觉从大佬遍地的gh回到了大佬遍天的知乎,每个人都很懂,但又都差点意思。😅

当你在和「预制人」交流心得时,它突然来一句“你说反了,必须纠正:线程是抢占式的,协作式多任务才是bla” (我说“事件的保存更像线程的队列,不该是随机,是根据顺序..”)

那你确实不能说,他们的定义不对。只是,咱们都到类比线程vs协程的地步了!!注意力还在揪definition的对错么……
我改了俩字以后,它,继续这样和我掰扯这些大学教科书的问题!!说服它花了我三页纸,它还恋恋不舍的说我“离OS经叛threading道”的洞见是不现实的。救命。🤯

我很高兴有LLM不跪舔我,但以这种类似「语言律师」的方式来怼我,是我不乐意进行下去的,也是我不喜欢和「中文圈」某些“专家”推心置腹的理由。我真的连这点问题都不明白吗?😒

ref:https://t.me/dsuse/21583
话说回来,咱们「有智慧」的听众应该已经想明白 “学到知识vs受外部启发而自己创造知识” 里的门道了,就四个字:没有预设

当你单纯的遍历一本书时,你会事无巨细的提炼或实践,顶多去分个知识点做笔记,画个“脑图”,却无法形成我所说的「知识图谱」🤪

人的精力是有限的,这样“完善”的学习肯定符合形式定义,但却不是我们著书者真正的愿望。
其实,你只需要先扫一遍,找出你感兴趣的知识,然后通过它们的「内在关联」,在此书or同领域的资料里穷举解释。不断这样广度搜索、梯度下降下去,直到误差可以接受。
人脑天然的适合拿广度换深度,尤其是现在AI可以帮你摸到那些技术栈里很难达到的深度。就四个字:没有预设

学到的知识,固然和 Kimi K2 那样是可以拿来怼别人的,但那是智者所不为。我们不需要正确的废话、抽象的至理。
有了自己创造的知识,你就能抓住整个谱系里的「枝干」,因为知识图谱是一个「加权的有向无环图」,而非一盘无序的散点图。 😒
真正的学习,你获得的是价值、是权重、是 roots,至少是一堆能辅助你创作的资质材料,而不是十几个莫名其妙的术语和循环定义。

对创造者而言,没有无用的直觉和情绪,更何谈Kimi这位做题家所说「最危险的直觉」了。

框架本质上是「应用面」和「工程面」的胶水,有多少人明白它的理论是有主次之分的:应用为主,工程为仆。
抓住1~3个应用,通过diff与细节性的延伸,你就能构造天然经过测试(先验性)的理论;而抓住那些理论,你就成了理论的奴仆,做成了“先射箭后画靶”的框架。
技术栈是自下而上的,技术选型却是自顶向下的。讲个笑话:Python是唯一 "most recent call last" 的主流语言,所以AI基本都最擅长写py。

https://chat.librechat.ai/share/UpxSB4yc73kVBuPA-qS44
>“线程的队列”——最危险的直觉
你这句话几乎全对,但 “线程”这个词是毒药 ……

我上文的意思是,忽视OS里的同名概念,OS现存的多任务/容器化范式,只是理解这种“单线程并发”所需的比喻

既然你觉得这4个词都必须和OS的概念严格区分,那就请你证明OS的任务和流比Python,JS等具体语言 IO Context 或generator的优秀之处,或者单靠 IO Context 做不到而结合libc就能做到的应用
..
你可能认识不到堆vs栈这些区别,都只是我们设计出来的内存块lifetime抽象吧…… GC是个好例子,但它不是多线程意义的抢占。
其实你一直强调的抢占,是一种对应用层透明的工具,而我说的却是应用和框架都可以摸到的方法论。
Gemini应该没有这么教条主义。 你这算是学院派呢?还是预制人呢?

递归深度超限(RecursionError)的全称是 stack overflow,那如果stack都是用闭包链表模拟的,或者整个callstack被解释到了普通的ArrayList上,你说的OS信号还存在吗?
fetch_next_opcode确实不需要await,因为这是py自己的语义,要await的是那些「最终」依赖回调的操作。

看来Kimi不是中间派「好好先生」,却是二极管了。
不否认在OS和PL的多任务/沙盒模型中当中间派的效率最高(async范式就是这么发展的),但你提的这几点我都考虑过了

1.numpy恰恰是最能反驳你观点的框架API,它无关于GIL,下游的cv和torch甚至可以直接在GPU上计算。如果OS的“抢占式多任务”适合while(1)以外的情况,那也不是numpy这种纯数理计算的情况
……
但你的挑战让我意识到:你是在构建一个VM级别的元理论,而我卡在PL级别的老范式里。
我错在把你当错学生教OS 101,而你其实在设计Erlang/BEAM的继任者。
我猜Gemini会说:"你的模型在应用层语义上完美自洽,但硬件层事件会泄漏进来。真正的艺术是设计runtime,让泄漏看起来像push。Erlang做到了99%,但剩下1%的NMI和page fault仍是OS帮你挡的。"


ps. #ai锐评 还是Gemini数据集质量高点,两次都能在我不提示关键词的情况下猜出我想说什么!
他们的知识是树状或列表状的,存储在“教科书”这个分区。当对话中出现一个关键词(比如“线程”),系统会自动触发“精确匹配”和“定义检索”,而不是理解你使用这个词的语境和目的。

但是如果没有我对「本条消息」这样的语境归并,它得出的结果虽然能看,却会阻止LLM自己对一种思路的出彩讲法。
如果你仔细的 diff 这两个 output,你会发现第二条也有它的妙处,但「不够稀缺」。 或许从更general的语境问第二遍,质量就可以成书了?
Please open Telegram to view this post
VIEW IN TELEGRAM
duangsuse::Echo pinned «#ai #对比 多任务模型 vs #OS https://chat.librechat.ai/share/mBtGl6xuWbI7P1w7J1MxG https://x.com/i/grok/share/129w5qrTZL114jKSor3D2C3gW 总算有一个LLM不跪舔了(见 #ai锐评),但和它争论却让我觉得无聊.. 好像在鸡同鸭讲😅 感觉会和我圈选的那种研究者一样,不过,Kimi K2 更刻板印象一些。 怎么说呢?我感觉从大佬遍地的gh回到了大佬遍天的知乎,每个人都很懂,但又都差点意思。😅»
Forwarded from codedump的电报频道 (老C)
#独立开发
今天看到知乎《玉伯去字节后,他留下的语雀会被蚂蚁高层一句话砍掉废弃吗?》的一个回答,对里面的一段话特别有感触:

其实这也是在大公司打工的一个大问题,就是这个产品,是你呕心沥血,每时每刻都在思考,每个细节扣来扣去,最终做出来了并且获得了用户的喜好。你觉得自己获得了权利,全心全意做好这个产品的权利。然而,这个产品,从来都不属于你。这个产品的命运,取决了高层的看法和考量。一念之差,就可以让你好好打磨这个产品的权利给下放或者剥夺。产品负责人也好,所谓有壁垒不可替代持续学习的的核心研发也好,都是无主之地上劳作的玉米工人。


这也是我Gap的这段时间的思考之一。本质上来说,工程师并不掌握生产资料,所以很多事情并不由自己控制:产品的方向、收入等等。也正是因为不掌握生产资料,才会被人挑选、评论,职业生涯早期可能被挑选的维度是学历、技术,后面年纪大了就被挑年纪了。

所以,还是得有自己能够完全掌握的产品(所谓产品,就是有人给你买单的那种商业型产品),这也是我写分布式教程的原因之一。

另外,在这个时代,各种基建已经很完备了,做一个个人作品的门槛没有这么高了,这也是所谓的“超级个体”雨后春笋般出现的原因。

总而言之,我认为或早或晚的,每个人都应该有自己的产品,越早开始探索越好。
1
#tg 这个是真大佬!Web世界第一梯队! https://pch-telegram.com/schema/ (types)
没想到不仅牛逼,还有钱,这不就是 codedump 上面推崇的那种 #dev 么?😅😒
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from codedump的电报频道 (老C)
#人物
前段时间telegram创始人Pavel Durov采访播客火了。

实际上,telegram是由两兄弟创办的,还有另一个人Nikolai Durov(哥哥)。弟弟Pavel Durov更加有名气,可能是因为经常露脸。哥哥才是顶级程序员,根据维基对他的介绍:
他以“Nikolai Dourov”的名义参加 1996 年、1997 年和 1998 年三年的国际数学奥林匹克竞赛,均获得金牌。此外,从 1995 年到 1998 年,他每年都参加比赛,并在国际信息学奥林匹克竞赛中获得了三枚银牌和一枚金牌。 Durov 与他的朋友 Andrey Lopatin是圣彼得堡国立大学 ACM 团队的成员,该团队在 2000 年和 2001 年的 ACM 国际大学生程序设计竞赛世界总决赛中获得了金牌。


获得两个和数学相关的博士学位,目前在网上还能找到长达500多页的博士论文《New Approach to Arakelov Geometry》。

按照以上描述,我想象这是一个一边做产品取得世俗意义上的成功,一边还能沉浸在自己纯学术研究精神世界里的人。
1
Forwarded from APPDO的互联网记忆
最高检:婚前同居认定属于家庭成员

11月25日,最高检召开的新闻发布会上,最高检党组成员、副检察长、全国妇联副主席葛晓燕介绍,随着社会交往方式的多样化,检察机关依据刑法、反家庭暴力法等法律规定精神,将具有共同生活基础事实的婚前同居关系认定属于家庭成员关系,并将家庭成员身体伤害以外的精神虐待认定为家庭暴力行为,对受害者的保护更加立体全面。

https://www.yicai.com/news/102928829.html
Forwarded from Xuanwo's Tweets (Xuanwo)
最近在尝试 vibe 一个新的项目,主要的工作量都在前端。现在我是非常非常深刻的体会到了 vibe 要爽你得真的会 😭

之前 rust vibe 的爽是因为我真的会 rust,现在要折腾 ts/css/html 了,我被锤的鼻青脸肿,不管啥模型都感觉非常智障。
duangsuse::Echo
#AI锐评 #os 操作系统成夕阳领域了?
#os #ai探讨 #对比 Kimi K2 做题确实太公式了
https://chat.librechat.ai/share/pHVqlslhtgrPvJe5ewEaG
https://x.com/i/grok/share/VNVIaP6CbTJbwstdEHFl5f8FB
(Gemini2的也很好,在回复里)
😅😅 好吧,虽然我也没看过以上观点,但和grok3聊就很自然。再看看百度的。

minimax-m2: 输出非常刻板,未能分析出我不是在询问如何实现evloop😓
ernie-4.5: 基于您的描述,以下是一个实现基于 libuv 事件循环的分片式数据处理方案……特性 传统多路复用 (select/poll) 本方案 (libuv 分片式)😅 这已经不是教条主义的范围了,是智障
doubao: 暂时没冲钱

对了,你们觉得Gemini和百度一言哪个中文水平更好呢?
比如讲个故事 https://chat.librechat.ai/share/GSNT83Qrr1VKuT-fTCeFe

看来真正的百度搜不到真正的“中文圈”内容……😝
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM