Forwarded from Xuanwo's Tweets (Xuanwo)
最近在尝试 vibe 一个新的项目,主要的工作量都在前端。现在我是非常非常深刻的体会到了 vibe 要爽你得真的会 😭
之前 rust vibe 的爽是因为我真的会 rust,现在要折腾 ts/css/html 了,我被锤的鼻青脸肿,不管啥模型都感觉非常智障。
之前 rust vibe 的爽是因为我真的会 rust,现在要折腾 ts/css/html 了,我被锤的鼻青脸肿,不管啥模型都感觉非常智障。
duangsuse::Echo
#AI锐评 #os 操作系统成夕阳领域了?
#os #ai探讨 #对比 Kimi K2 做题确实太公式了
https://chat.librechat.ai/share/pHVqlslhtgrPvJe5ewEaG
https://x.com/i/grok/share/VNVIaP6CbTJbwstdEHFl5f8FB
(Gemini2的也很好,在回复里)
😅 😅 好吧,虽然我也没看过以上观点,但和grok3聊就很自然。再看看百度的。
minimax-m2: 输出非常刻板,未能分析出我不是在询问如何实现evloop😓
ernie-4.5: 基于您的描述,以下是一个实现基于 libuv 事件循环的分片式数据处理方案……特性 传统多路复用 (select/poll) 本方案 (libuv 分片式)😅 这已经不是教条主义的范围了,是智障
doubao: 暂时没冲钱
对了,你们觉得Gemini和百度一言哪个中文水平更好呢?
比如讲个故事 https://chat.librechat.ai/share/GSNT83Qrr1VKuT-fTCeFe
看来真正的百度搜不到真正的“中文圈”内容……😝
https://chat.librechat.ai/share/pHVqlslhtgrPvJe5ewEaG
https://x.com/i/grok/share/VNVIaP6CbTJbwstdEHFl5f8FB
(Gemini2的也很好,在回复里)
minimax-m2: 输出非常刻板,未能分析出我不是在询问如何实现evloop
ernie-4.5: 基于您的描述,以下是一个实现基于 libuv 事件循环的分片式数据处理方案……特性 传统多路复用 (select/poll) 本方案 (libuv 分片式)
doubao: 暂时没冲钱
对了,你们觉得Gemini和百度一言哪个中文水平更好呢?
比如讲个故事 https://chat.librechat.ai/share/GSNT83Qrr1VKuT-fTCeFe
看来真正的百度搜不到真正的“中文圈”内容……
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
duangsuse::Echo
人的精力是有限的,这样“完善”的学习肯定符合形式定义,但却不是我们著书者真正的愿望。
其实,你只需要先扫一遍,找出你感兴趣的知识,然后通过它们的「内在关联」,在此书or同领域的资料里穷举解释。不断这样广度搜索、梯度下降下去,直到误差可以接受。
人脑天然的适合拿广度换深度,尤其是现在AI可以帮你摸到那些技术栈里很难达到的深度。就四个字:没有预设。
其实,你只需要先扫一遍,找出你感兴趣的知识,然后通过它们的「内在关联」,在此书or同领域的资料里穷举解释。不断这样广度搜索、梯度下降下去,直到误差可以接受。
人脑天然的适合拿广度换深度,尤其是现在AI可以帮你摸到那些技术栈里很难达到的深度。就四个字:没有预设。
X (formerly Twitter)
费曼路径积分法
哇,又一个费曼相关的主题!理查德·费曼的路径积分(Path Integral Formulation)是量子力学的一种优雅表述,它把粒子从A到B的运动看作所有可能路径的“求和”,而不是经典的单一路径。既然你之前分享了费曼学习法的变体,我猜你想用那个框架来攻克这个概念?太合适了,因为路径积分本身就是费曼的发明,充满了他的直觉风格。
我会用你的四步法迭代一遍“费曼路径积分法”,聚焦其核心。作为演示,我选的“有意思知识点”是路径积分的本质公式:粒子传播振幅是所有路径的相干叠加(∫ e^{iS/ℏ} D路径)…
我会用你的四步法迭代一遍“费曼路径积分法”,聚焦其核心。作为演示,我选的“有意思知识点”是路径积分的本质公式:粒子传播振幅是所有路径的相干叠加(∫ e^{iS/ℏ} D路径)…
Feynman的四步学习方法: #ai (当然不是直接复制粘贴 😅)
#TLDR 找乐子、教初一、找茬、舌战大儒 (科班的做题家kimi最合适)
信息的生成、传输、消费,这个流程里包圆了。 #PLT 解释器 所涉及的“全面理解”,也不过这些
谈到“舌战”的对象,真人你要顾及的非技术太多,建议问“大贤者”:
感觉grok3的回答就像MLP里的Pinky在酒馆里和你“嘿嘿,...”的闲聊,有时会一针见血;Gemini2则像大树图书馆里的Twilight,非常有人文关怀,视角也比较宏观。😝
子曰:教学半。如果能在做完4步一个迭代后,留下一些融会贯通的小考验就更适合教别人了。
https://x.com/i/grok/share/dsV6tGZU0akYvVfyni3wxub5X
1.收集有意思的知识点(最好是那些缺了,整本书或整段code就跑不起来的,甚至是会让这一个概念无意义的)
2.假装解释给一个小孩听(限时 6~8 分钟,逼你抓最粗的枝干,禁用任何新术语)
3.卡壳即宝藏
先问:“这个缺口如果被完美填上,能否顺便解决相似的两个问题?”
才带着这个缺口去“广度穷举”,而不是“精准补课”
同一个缺口在不同语境下有5种以上路径,知识图谱的边开始疯狂生长!
4.假装解释给一个欠揍的教授听
重新教一遍,这次教给“一个挑剔的专家”,他随时会 "So what?" "What about ___?" 你。
他随时会拒稿,因此你需要指出每条路径的优劣、适用场景、历史背景、潜在大坑。
#TLDR 找乐子、教初一、找茬、舌战大儒 (科班的做题家kimi最合适)
信息的生成、传输、消费,这个流程里包圆了。 #PLT 解释器 所涉及的“全面理解”,也不过这些
谈到“舌战”的对象,真人你要顾及的非技术太多,建议问“大贤者”:
感觉grok3的回答就像MLP里的Pinky在酒馆里和你“嘿嘿,...”的闲聊,有时会一针见血;Gemini2则像大树图书馆里的Twilight,非常有人文关怀,视角也比较宏观。
子曰:教学半。如果能在做完4步一个迭代后,留下一些融会贯通的小考验就更适合教别人了。
https://x.com/i/grok/share/dsV6tGZU0akYvVfyni3wxub5X
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡1
Xuanwo's Tweets
最近在尝试 vibe 一个新的项目,主要的工作量都在前端。现在我是非常非常深刻的体会到了 vibe 要爽你得真的会 😭 之前 rust vibe 的爽是因为我真的会 rust,现在要折腾 ts/css/html 了,我被锤的鼻青脸肿,不管啥模型都感觉非常智障。
https://yinwang-wiki.github.io/site/blog/posts/2025/08/14/提高基础班的学费.html
#经济 工具: https://chat.librechat.ai/share/OBrt-llz6-Vc2wGen_sHt
国内的其他套路: https://chat.librechat.ai/share/Z68uOwQ923wK8plGkhmRK
😅 yin的脸还挺大的。 虽然我也不喜欢造神崇拜(譬如说,我并没有依赖图灵的什么技术或方法论,图灵对现代Web栈和各位也没什么帮助,还不如老“冯诺慢”)
在我看来,虽然只有我们这样的 #CS 人能问出这种问题(见文顶),但我们这样问了,很多人都可以自己去追问AI!
为什么说不应该贬值(其实只是跌价)呢? 何况,很多人只是为了做一些很酷的事情学CS的,AI是个很好的分流。
创作者所面对的痛点和语境相同,就会“趋同演化”。至理是历史的终结,Minix和Plan9还是Linux和Docker的老师呢,你可知道
FirecrackerVM, Unikraft, eBPF/Luanitik, fil-c.org/compiler, ops.city 这些也都是2017往后的(内核态Lua是2009),难道他们会去抄了yin“鸟不起的设想”么?😅
完善的理论本身是瘸腿,而我,并不是做一个UI的打包(software distribution),而是完全遮蔽、归化了这一类rethink,形成了自己的“子系统”;就像我《面向薛定谔的技术分享》所述的哲学,她并非是嫁接yin“开源知识”的「yin学家😒 」。
yin收集和中文化的思想,可能只占我体系的25%而已,并且只在"roots"里为了方便而出现。实际去
工程师最大的荣耀,就是让理论变成“理所当然的背景板”。 我将亲手把“前沿”变成“常识”
Idea is cheap, execution is everything!
“哦,那个啊,早被我优化成builtin了,你们还在手写呢?😒 ”
ps. 我写这么大一串,都是为了react一下yin现在的一些观念:
我很尊敬他,但他看来也有点抽象化了😅 ,不谈以前阴谋论的事(那些是“相对”独立的)…… 有些领域的“交流土壤”和生态,真是有毒啊!
为什么C++的凡夫俗子反而没这么「聪明反被聪明误」 #statement 啊,还是科班好,虽然一到前沿就变“木兰编程语言”了。
#ai锐评 https://chat.librechat.ai/share/MaKcFUNSsx5pen64LSYmr
Unikraft https://serversfor.dev/linux-inside-out/the-linux-kernel-is-just-a-program/
单文件ELF+PE的可能性 https://justine.lol/cosmopolitan/howfat.html
GC/Rc 的最终 https://x.com/i/grok/share/ULJQCSOhg56OCZiY84f29lPZO
在 AI 生成代码能力越来越强的时代,我传授的知识非但不会贬值,反而会大幅度升值。因为这个课程讲的并不是“编程”,而是计算机科学的精髓。
#经济 工具: https://chat.librechat.ai/share/OBrt-llz6-Vc2wGen_sHt
国内的其他套路: https://chat.librechat.ai/share/Z68uOwQ923wK8plGkhmRK
在我看来,虽然只有我们这样的 #CS 人能问出这种问题(见文顶),但我们这样问了,很多人都可以自己去追问AI!
为什么说不应该贬值(其实只是跌价)呢? 何况,很多人只是为了做一些很酷的事情学CS的,AI是个很好的分流。
😒 关于copycat的问题,咱们的“同行听众”应该一直在注意我最近的内容。我也很有心,除了一些「学习的哲学」,七成是yin十年前就讲过的。
比如One语言、甚至是(Runtime==OS)的概念:《一种新的操作系统设(2018)》 就这么想了,而我也确实早就看过这类方向
要是我的语文能力,就像许多 #plt 人一样很差,我确实不能自证我不是“抢(robbed) 了他的点子(full reward for his originality)”!😝
其实呢我并不care这些理论上的,“死的所有权”。 可口可乐和其他饮料都有99%是水。难道所有造飞机的人,都是抄袭了鸟类么?
创作者所面对的痛点和语境相同,就会“趋同演化”。至理是历史的终结,Minix和Plan9还是Linux和Docker的老师呢,你可知道
tree /{proc,sys}/ 是从哪边“抄”的呢? FirecrackerVM, Unikraft, eBPF/Luanitik, fil-c.org/compiler, ops.city 这些也都是2017往后的(内核态Lua是2009),难道他们会去抄了yin“鸟不起的设想”么?
完善的理论本身是瘸腿,而我,并不是做一个UI的打包(software distribution),而是完全遮蔽、归化了这一类rethink,形成了自己的“子系统”;就像我《面向薛定谔的技术分享》所述的哲学,她并非是嫁接yin“开源知识”的「yin学家
yin收集和中文化的思想,可能只占我体系的25%而已,并且只在"roots"里为了方便而出现。实际去
cat /proc/self/anyHow 时你可看不到他们理论的影子!因为我是一个爱用1~3个demo让旧理论变成footnote的人。工程师最大的荣耀,就是让理论变成“理所当然的背景板”。 我将亲手把“前沿”变成“常识”
Idea is cheap, execution is everything!
“哦,那个啊,早被我优化成builtin了,你们还在手写呢?
ps. 我写这么大一串,都是为了react一下yin现在的一些观念:
我必须严格控制谁能知道这些信息。我发现世界上有太多的 copycat 或者鹦鹉学舌的人。他们看到别人说了什么有价值的信息,就 copy 过去转述给别人,好像那想法是他的一样,如此获得地位和利益。
我发布的内容显然成为了这种人的关注点之一,所以我不想再多发布什么有价值的信息。 (我的洞见)……都是秘密,不会轻易传授。……类似于一个武林门派,学生必须符合严格的信任标准和资格。
我很尊敬他,但他看来也有点抽象化了
为什么C++的凡夫俗子反而没这么「聪明反被聪明误」 #statement 啊,还是科班好,虽然一到前沿就变“木兰编程语言”了。
#ai锐评 https://chat.librechat.ai/share/MaKcFUNSsx5pen64LSYmr
Unikraft https://serversfor.dev/linux-inside-out/the-linux-kernel-is-just-a-program/
单文件ELF+PE的可能性 https://justine.lol/cosmopolitan/howfat.html
GC/Rc 的最终 https://x.com/i/grok/share/ULJQCSOhg56OCZiY84f29lPZO
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from yihong0618 和朋友们的频道
sad story 顺便帮推这个人
从我自己的角度是,尽量别把老板当成偶像和朋友,除非是工作外酒蒙子的交情。也尽量不在任何公开场合聊自己的工作。
从我自己的角度是,尽量别把老板当成偶像和朋友,除非是工作外酒蒙子的交情。也尽量不在任何公开场合聊自己的工作。
#vibe #embed PoV display, Holographic 😮
https://jsbin.com/sowamo/edit?html,output
AI似乎为了显示效果,在GL里写死了视觉暂留的模拟(手写应该不会这么细😅 );不过看起来很酷,可扩展,而且也容易移植到RPi上。
btw. 搜到 https://0x7f.cc/tdps-design/ 大三智(能)(避)障小车项目研究,感觉业务逻辑也可以在2Dcanvas里模拟
回头整理下在workflow里插入Gemini/Grok的经验。😝
https://jsbin.com/sowamo/edit?html,output
https://chat.librechat.ai/share/Im6ypXadkhtqjzPVHbZJC Gemini3 很棒!
https://jsbin.com/godebah/edit grok3理解错了,但导入表写对了
https://jsbin.com/voyigen/edit 第一版
https://jsbin.com/sowamo/1/edit?output 无UI版
参照物: DIY https://www.instructables.com/PropHelix-3D-POV-Display/
ESP32 https://projecthub.arduino.cc/jobitjoseph/open-source-high-resolution-pov-display-using-esp32-799677
工业级3D显示 https://hackaday.io/project/180304-vvd-an-open-source-real-3d-volumetric-display
AI似乎为了显示效果,在GL里写死了视觉暂留的模拟(手写应该不会这么细
btw. 搜到 https://0x7f.cc/tdps-design/ 大三智(能)(避)障小车项目研究,感觉业务逻辑也可以在2Dcanvas里模拟
回头整理下在workflow里插入Gemini/Grok的经验。
Please open Telegram to view this post
VIEW IN TELEGRAM
#post #FP “袋鼠”Effect和新语言问题
Algebraic Effect 很像Java的“强类型Exception” `signature f(): (Int|throws Exception)`,就像袋鼠一样,把所有可能冒泡(不截获)的事件都装进去。
但“效应器”也提供了依赖注入选项。如 throw GET() 可以搭配 `catch(GET){yield "async"}`,这样,FP Monad/IO 到处乱窜的毛病就终于被OOP“修正”了,而且“似乎”没有折损原来的逼格(好吧,其实就是implicit参数,全局状态可变)
作为近两年开始流行的新语言特性,Unison, 仓颉 都支持了效应捕获的语法
yin谈新语言问题时是针对稀奇古怪的语法的,但我觉得新语言支持新“范式平台”是一个积极的方向
问题在于,Effect 这种编译期依赖注入是否真的弊大于利,并且值得认知成本。 “强类型Exception” 本身就是有问题的
(你见过哪个Web应用“区分”错误?粗粒度的 try{} 和提供defaultValue/fallbackOp的困难本就是在掩盖问题,那应该和null-safe一样简单)
新语言必须认真考虑特性平台的不可替代性,而不是不断推翻旧版本的“新语言”。
https://chat.librechat.ai/share/bckpHUUNhYtWu12gsDE4W
ps.基础知识: https://chat.librechat.ai/share/aagQswVYQZ4mp4oXTABRc
Algebraic Effect 很像Java的“强类型Exception” `signature f(): (Int|throws Exception)`,就像袋鼠一样,把所有可能冒泡(不截获)的事件都装进去。
但“效应器”也提供了依赖注入选项。如 throw GET() 可以搭配 `catch(GET){yield "async"}`,这样,FP Monad/IO 到处乱窜的毛病就终于被OOP“修正”了,而且“似乎”没有折损原来的逼格(好吧,其实就是implicit参数,全局状态可变)
作为近两年开始流行的新语言特性,Unison, 仓颉 都支持了效应捕获的语法
yin谈新语言问题时是针对稀奇古怪的语法的,但我觉得新语言支持新“范式平台”是一个积极的方向
问题在于,Effect 这种编译期依赖注入是否真的弊大于利,并且值得认知成本。 “强类型Exception” 本身就是有问题的
(你见过哪个Web应用“区分”错误?粗粒度的 try{} 和提供defaultValue/fallbackOp的困难本就是在掩盖问题,那应该和null-safe一样简单)
新语言必须认真考虑特性平台的不可替代性,而不是不断推翻旧版本的“新语言”。
https://chat.librechat.ai/share/bckpHUUNhYtWu12gsDE4W
ps.基础知识: https://chat.librechat.ai/share/aagQswVYQZ4mp4oXTABRc
duangsuse::Echo
作为近两年开始流行的新语言特性,Unison, 仓颉 都支持了效应捕获的语法
GitHub
cangjie_stdx/doc/libs_stdx/effect/effect_package_overview.md at a7c43d44381a995262ac93ba56dce66090613269 · cangjielanguage/cangjie_stdx
Contribute to cangjielanguage/cangjie_stdx development by creating an account on GitHub.
https://x.com/i/grok/share/ZBRA0vtJcBzGQpq9KQd56pJPu #FP #haskell
很好,以前ohos是滥竽充数,现在都会“妄自菲薄”了。 本来就和JDK没的比,新特性还要到字缝里去翻,不是 🤡么? Rust好歹是原神呢😅
让各位看看外行写导论会写出什么幺蛾子来: https://zhuanlan.zhihu.com/p/76158581
我以前就是看的这种,纯浪费时间么,还不如蛤为仓颉的客座沙龙
我决定不把Effect归化到我的编程语言里去,技术细节见 #ai探讨 https://chat.librechat.ai/share/tPbd15iaCJ9_DMQNy7KuW🤯
#ai对比 https://chat.librechat.ai/share/mEcMHpAc4j_v3HYn4fzwA
😒 Kimi 这次有用多了,重要的是便宜
很好,以前ohos是滥竽充数,现在都会“妄自菲薄”了。 本来就和JDK没的比,新特性还要到字缝里去翻,不是 🤡么? Rust好歹是原神呢
https://gitee.com/HW-PLLab/pllab_slides/raw/dev/WechatOfficialAccSlides/20221123-EffectHandlers从函数式编程到系统级语言-by-DanGhica.pdf#page=8
https://github.com/cangjielanguage/cangjie_stdx/blob/a7c43d44381a995262ac93ba56dce66090613269/doc/libs_stdx/effect/effect_package_overview.md
让各位看看外行写导论会写出什么幺蛾子来: https://zhuanlan.zhihu.com/p/76158581
我以前就是看的这种,纯浪费时间么,还不如蛤为仓颉的客座沙龙
我决定不把Effect归化到我的编程语言里去,技术细节见 #ai探讨 https://chat.librechat.ai/share/tPbd15iaCJ9_DMQNy7KuW
#ai对比 https://chat.librechat.ai/share/mEcMHpAc4j_v3HYn4fzwA
Algebraic Effects(AEff) 是最近纯函数式PFer的动向,用于替代各种Monad。这其实是PF对“易变现实”的很大让步了
就像不理解 “伪递归=改参跳到def开头重来”,PF非常在意“堆变量不纯,栈变量不纯,参数变就纯”的无聊形式,于是就有了 `{IO,State,Random} Monad` 这些“纯粹的参数”,组合出Monad jQuery式的调用链,就叫“do语句块”
`State(0).fmap(u=>u+1)` 其实就是 `Var(0).then(u=>u+1)` ,因为u+1那块可以调用另一个“广义Promise”,就有了 `flatMap(async(u)=>u+1)` ,这就是染色问题(没错,这正是 #Haskell Logo >>= !)
flatMap的语意在List上很怪异,但对await这种Effect是必要的,记住:这个“盒子”不能拿 Var(wtf).v ,它只能 Var(wtf).then(cps) ,那么cps返回Var就会扰乱后续链!当然Monad有一套“Algebra而惧吧”的文字游戏(比如foldMap),这里只提applicable。
与强行拿call回调串联顺序,在语意层去手写interpreter里“求值序语法”的单子相比,AEff 更是典中典。 不过我在这里,却是要欲抑先扬的赞同AEff的4个爽点。
我喜欢把 Algebraic Effects(AEff) 函数叫做“袋鼠效应器”。错误、系统调用、localStorage等“感受器”被她放在育儿袋外,代数跳出袋子,感受器就【择机】把它放回去:
- 异常的冒泡、重抛或替换,类似Rust受检的Result<T,Err>
- “请求局部”的可变量容器,就像隔离的 Arena,localStorage,Worker全局 ,这样PFer就不会受“参数变才纯”的限制
- 单例工具的参数注入,比如“进程”的pwd,fetch的登录头
- 异步(syscall)!求值栈转回调链表,才能够做 sleep() 和 evpoll/queue 等“内核态操作”
异常异步相耦合,“IO结果注入”和可变容器相耦合,可以说很优雅的确定了报错与IO请求的“范畴”。
袋鼠妈妈,就是evloop,那感受器自然是线程了!catch时她停止resume,并且waitUntil池空的话,进程自然退出。
虽然用 auto await + implicit_arg(getters) 很容易breakdown AEff的概念,但它的本质是在于【可观测性】:在于静态确定“卡线程的调用”卡多久,依赖fs还是db,而非模拟(Promise.catch)。
AEff实现“参数变才纯”时,就比Monad轻量了许多: 别忘了var.flatMap(Var内)可以有then以外的键。 不过这种文字游戏对practical是白费脑力。
上面说欲抑先扬,那表扬完该批评了:AEff 中看不中用!
相对于DOM/Java“漏洞百出”的IO限界和样式值注入,Monad还不严谨吗? 尽信书不如无书,尽受检不如不检。一个白屏是100%不会抛错的,这就是“干净”的价格。
我自己用我自己的异常和异步范式,实现那“4个爽点”
Result有另一种实现:所有值,包括0都是truthy。null,Error和NaN是falsey。只允许object键的值是null,而访问Error的任何键都会throw。
在这种模式下,为Result提供冒泡、捕获替换的最好方法,不是AEff的“自动await”,而是nulley链(?. 和 ??),比如 txt=readSync('_404')? ,再加上“异步函数名”的约定,比如 read?('_404')? ,这些可以预处理实现,缺点是没有AE的默认值注入那么“自由”
至于可变状态,我使用类似Hooks的 n=inHole(0); n1=n.As(x=>x+1); n.As(233); assertEq(n1.v, 234) ,这个模式显然兼容Promise,As就等效Thenable。
---
有人告诉我可以直接在AEff语言上实现 read()?错处和“函数名?异步”,从而在架构上利用AEff,业务上却使用nulley链。这忽视了“async是否天然就该标明”的争议点。
AEff,或许是对系统调用的极佳抽象,也可以“插入”传统的OOP异常里。这就像closure变量不等于this变量,函数值与dict原型链,【正交】构成了对所有数据和操作的“Composer”。
但我认为,closure和SAM对象的协调性是特例,AEff和nulley链只能择一而从:AEff说到底还是 auto await + implicit_arg(getters) 的赠品,错处的一致性,不可能超过由链提供的默认值或rethrow操作!
AEff的赢面,是用函数签名【静态】确定线程的await,甚至能区分noreturn抛出vs捕获回调链表的优化,就像closure能unbox掉不泄露的SAM对象或纯const的cellvar。
但隐晦和省事,在工程上未必是好事,尤其是定义与使用处都不一致的AEff。
在应用编程时,几乎没人会根据Error子类去注入default,因为那天然是caller的职责,并且,其实 IO 是非常有限的!fetch() 或FileReader的caller“应该”有几层?
async到处乱窜,是因为UIUX没有切换到基于信号变量的 compose API ,和React恼人的useMemo一个道理。 本来是“setter续延”的粒度不够细导致的,AEff再去模糊界限,是对timing语意的忽视。
另一方面,AEff的函数签名过于复杂。异常和“系统调用”应该静态检查,但分的太细就是“屎上雕花”。我从没见过隔着两层caller还能针对性的fallback,而95%的App都以C的那种tag+msg处理异常。
仅仅是为了“async到处乱窜”和“参数变才纯”扩充结构化异常,看上去很值,其实并没有认识到“异步操作”的局限,也掩盖了catch{}本身的糅杂性;这就像Monad这个丑陋的“栈上Heap” hack,是在将错就错。Monad也是一个到处乱窜的“动态域”,do语句块可把它驯服了?
AEff 可以轻松实现“结构化并发”(协程的批量等待与撤回/close),看上去也很牛,但“异步的祖师”,DOM fetch() 用的却是信号变量,这不足以指出班门弄斧的“袋鼠笑话”吗?
ES6花了10年把你从for(x)带到forEach(x=>),“结构化”的学霸又把你带回去了,那你打算怎么用“结构化并发”写一个IDM的暂停重下呢?
DOM或许像没有兼容问题的一体机,但它的思想是纯粹的。我们需要的是 Worker<->Promise&Signal、普通计算<->异步IO管线 这样清晰的解耦,而不是半吊子的“大同”!
Please open Telegram to view this post
VIEW IN TELEGRAM
duangsuse::Echo
我决定不把Effect归化到我的编程语言里去,技术细节见 #ai探讨
P1: ppt 里有一页非常全局的描述了编程语言从汇编goto以来「流控」的发展,比如悲伤路径(fallback)、耗时操作(进程)
我看这张隐隐约约是说OOP使用的AOP/await/Worker等方法不如FP的竟品灵活😅
可是我的语言用的并不是最右边的子图里的任何一个,它是基于 declarative compose可变量 + nulley可选链处理Error类型,可能还有Arena这种“非局部”的隔离,不像FP的eh或OOP SEH的隔离那么乱
看PL界的动向可以,但最终目的并不是学习人家,而是找灵感。😅 😅
P2: 理解挺成体系的,不过ppt原文揉杂的东西太多了,顺序挺乱的
#ai锐评 https://chat.librechat.ai/share/_syu9tn6ne8BRMBjFMCCR
好像没看出我在反讽
我看这张隐隐约约是说OOP使用的AOP/await/Worker等方法不如FP的竟品灵活
可是我的语言用的并不是最右边的子图里的任何一个,它是基于 declarative compose可变量 + nulley可选链处理Error类型,可能还有Arena这种“非局部”的隔离,不像FP的eh或OOP SEH的隔离那么乱
看PL界的动向可以,但最终目的并不是学习人家,而是找灵感。
P2: 理解挺成体系的,不过ppt原文揉杂的东西太多了,顺序挺乱的
#ai锐评 https://chat.librechat.ai/share/_syu9tn6ne8BRMBjFMCCR
好像没看出我在反讽
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
duangsuse::Echo
我决定不把Effect归化到我的编程语言里去,技术细节见
#PLT #learn HOAS/de Bruijn index 两种变量(和“栏目答”)实现方法 😅
#statement 知道我为啥圈选回复这条吗?
Algebraic Effects 也是一个PFP的“新秀”,但我考察后觉得没有吸纳的必要,那么不是新秀的deBruj啥,就更没有必要了。
我一直觉得提出它的领域(“定理证明器”)是多此一举的: 自己test都不明白,又何谈证明呢? 若非如此,何需证明呢?
不懂的证明没用,能懂的证明干嘛! 所以,我不会和AEff一样(因为像 #Haskell 还有些可取之处),就额外偏心一些
但是,这俩理论启发了我(作为负面教材),也算不虚此行,没有在弯来绕去的无聊符号上,浪费智商。
回头我会讲讲Prolog的“1=x式变量”与它所不能做的「形式化证明」有何联系。
https://t.me/dsuse/11841
#ai探讨 https://chat.librechat.ai/share/9iz2YegEZl9kEdiacDNmF
#statement 知道我为啥圈选回复这条吗?
Algebraic Effects 也是一个PFP的“新秀”,但我考察后觉得没有吸纳的必要,那么不是新秀的deBruj啥,就更没有必要了。
我一直觉得提出它的领域(“定理证明器”)是多此一举的: 自己test都不明白,又何谈证明呢? 若非如此,何需证明呢?
不懂的证明没用,能懂的证明干嘛! 所以,我不会和AEff一样(因为像 #Haskell 还有些可取之处),就额外偏心一些
但是,这俩理论启发了我(作为负面教材),也算不虚此行,没有在弯来绕去的无聊符号上,浪费智商。
回头我会讲讲Prolog的“1=x式变量”与它所不能做的「形式化证明」有何联系。
https://t.me/dsuse/11841
#ai探讨 https://chat.librechat.ai/share/9iz2YegEZl9kEdiacDNmF
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
duangsuse::Echo
前置知识:De Bruijn Index - Trebor的文章 - 知乎
https://zhuanlan.zhihu.com/p/94601499 #PLT #FP
https://zhuanlan.zhihu.com/p/94601499 #PLT #FP
duangsuse::Echo
回头我会讲讲Prolog的“1=x式变量”与它所不能做的「形式化证明」有何联系。
#ai探讨 这次的结果比较失败😅 我已经努力备稿了,但回答质量还和Gemini的版本、WEB数据集相关
总的来说,十几次提问点到的都有,有一些切入的很好,质量不稳定,显示我没有问到真髓。但总比知乎那些只会晒output的人好多了
https://chat.librechat.ai/share/aqfRjkK2bKQDQQKbvMDg_
https://x.com/i/grok/share/pNEr4q20xBGlITAXGso7Th8mL
让我们聊聊定义式编程与证明。
有句话叫“类型即命题,程序即证明”。一般来说,类型只是被常量“根”、变量的传导所决定的assert树,
是类型来证明程序的“有效”,而不是写出函数的定义,就使证明得解。
我认为这与三大要点相关:
总的来说,十几次提问点到的都有,有一些切入的很好,质量不稳定,显示我没有问到真髓。但总比知乎那些只会晒output的人好多了
https://chat.librechat.ai/share/aqfRjkK2bKQDQQKbvMDg_
https://x.com/i/grok/share/pNEr4q20xBGlITAXGso7Th8mL
让我们聊聊定义式编程与证明。
有句话叫“类型即命题,程序即证明”。一般来说,类型只是被常量“根”、变量的传导所决定的assert树,
是类型来证明程序的“有效”,而不是写出函数的定义,就使证明得解。
我认为这与三大要点相关:
1. 关系式编程的“无尽多态”
在Prolog里,(x+1=2) 不需要x的值,因为x本身就是(+)函数可以infer出的变量(就像解构)
甚至,自然数 (x+y=2) 也不需要,这是因为变量不被视为“右值” “左值”,而更像“等位值”或者“应后值(x=inHole 1)”
为了将DFS的推理过程与递归结合,一般是用Peano“链表数”简化自然数相加的意思: `append_out(x, [1],[1,1])`
如果把(+)视为assert,x,y 视为类型变量,甚至是程序……或者反之?我们就有了“兼容一切可能性”的检查器。这也是SAT算法的应用。
因为,这时“栏目答(lambda)”新建的变量,不是“要被赋值的盒子”,而是“约束的孔洞”。
“变量的容器”对函数就不再是黑箱,而是“提问的基础”。
2. 可以在函数执行前assert的“类型标注”
有句话叫“没有类型比def本身的实现,更能表达它的类型。”
无论def,class还是更复杂的结构,typehint的本质是被独立执行的assert语义,它是一个“子语言”。
写一个typer,其实就是写一个解释器,然后,让它停机。
这样就肯定不能体现“流控语意”,比如 for,if,throw,因此它也会引入模糊性,也就是 soundness vs completeness (误报时的过严和“执行时”过慢)
比如 union type “有联类型”就能比C的类型更好对应 (isXX? A():B()) 这种语法,因此更sound: 优雅的程序会“镜像”它所处理数据的结构,类型亦然。
到这里,我们已经看到“类型和程序同构性”里的三态:事后检查(TS)、同步构造(程序就像x,y)、事前求解(Prolog)
3. 程序的等价性
既然我们知道了关系式编程类似SAT,它的基石是 unify(A,B) 的成立、组合或分支,程序显然也有着相等性
(x=>x) 等价 (y=>y) 是栏目答演算里的一个“定理”,它的成立前提在TypeScript也可以表达: 如果类型签名不同,函数不可能相等。
但“等价”似乎是另一种: `f(A,B) 等价 ((A,B,_x)=>f(B,A))(B,A,0)` 并不比上面的“定理”困难,而且它的“类型签名”相差很大
“类型即命题,程序即证明” 在此到底是指什么呢?请结合要点1“等位值”探讨。
上面的等价性,在TypeScript上依赖于 <A,B> 变量被「抽象」成为不同类型,但是当涉及“字面类型”时:
`chkstk=(n)=>(n==0)? 0 : chkstk(n-1)+1`
如何证明若有 nat(n) ,chkstk会停机? 请结合要点1讲解
Please open Telegram to view this post
VIEW IN TELEGRAM
开源 #ai #news https://t.me/hyi0618/9815?comment=142646
DeepSeek-V3.2 的目标是平衡推理能力与输出长度,适合日常使用,例如问答场景和通用 Agent 任务场景。在公开的推理类 Benchmark 测试中,DeepSeek-V3.2 达到了 GPT-5 的水平,仅略低于 Gemini-3.0-Pro;相比 Kimi-K2-Thinking,V3.2 的输出长度大幅降低,显著减少了计算开销与用户等待时间。
DeepSeek-V3.2 的思考模式也增加了对 Claude Code 的支持,用户可以通过将模型名改为 deepseek-reasoner,或在 Claude Code CLI 中按 Tab 键开启思考模式进行使用。
#pingbk
https://t.me/hyi0618/10588
prompt caching 也叫 KV caching,缓存的不是答案,是中间干活的结果,规避 LLM 推理过程中的冗余计算,但不影响输出的随机性。很灵活,不用完整匹配整段,支持前缀部分匹配。
DeepSeek-V3.2 的目标是平衡推理能力与输出长度,适合日常使用,例如问答场景和通用 Agent 任务场景。在公开的推理类 Benchmark 测试中,DeepSeek-V3.2 达到了 GPT-5 的水平,仅略低于 Gemini-3.0-Pro;相比 Kimi-K2-Thinking,V3.2 的输出长度大幅降低,显著减少了计算开销与用户等待时间。
DeepSeek-V3.2 的思考模式也增加了对 Claude Code 的支持,用户可以通过将模型名改为 deepseek-reasoner,或在 Claude Code CLI 中按 Tab 键开启思考模式进行使用。
#pingbk
https://t.me/hyi0618/10588
prompt caching 也叫 KV caching,缓存的不是答案,是中间干活的结果,规避 LLM 推理过程中的冗余计算,但不影响输出的随机性。很灵活,不用完整匹配整段,支持前缀部分匹配。
Telegram
🏃♂️ in yihong0618 Chat
DeepSeek-V3.2-Speciale 也开源吗,还是只提供接口
duangsuse::Echo
#PLT #learn HOAS/de Bruijn index 两种变量(和“栏目答”)实现方法 😅 #statement 知道我为啥圈选回复这条吗? Algebraic Effects 也是一个PFP的“新秀”,但我考察后觉得没有吸纳的必要,那么不是新秀的deBruj啥,就更没有必要了。 我一直觉得提出它的领域(“定理证明器”)是多此一举的: 自己test都不明白,又何谈证明呢? 若非如此,何需证明呢? 不懂的证明没用,能懂的证明干嘛! 所以,我不会和AEff一样(因为像 #Haskell 还有些可取之处),就额外偏心一些…
#ai对比 https://chat.librechat.ai/share/DKnw34-lIfqqaISpKQgXw
DeepSeek 感觉在一些地方比G2.5还好,不知道是不是中文提问的原因。 就是还没测试是否是「做题家」?😒
我估计它全线超过了Kimi,但为了灵感的完整性,这些开源模型可以顺便“旁听”一下。
DeepSeek 感觉在一些地方比G2.5还好,不知道是不是中文提问的原因。 就是还没测试是否是「做题家」?
我估计它全线超过了Kimi,但为了灵感的完整性,这些开源模型可以顺便“旁听”一下。
Please open Telegram to view this post
VIEW IN TELEGRAM
duangsuse::Echo
#ai探讨 #对比 Kimi K2 做题确实太公式了
#ai对比 DS,Grok3,Kimi 免费😝
很不错! 虽然DS还是有些严谨,但它贴代码的能力很强,让人感觉不到生硬(这点中国AI可能普遍更强,问题是太做题家)
最重要的是,DS的「领域全局观」很强,能结合灵感和 living standard 实践。😃
这种程度的教条主义,非常适合在grok3之后阅读,然后是kimi2 (从灵感越来越偏向于现实妥协),最后是SOTA的G3(高费LLM)
https://chat.librechat.ai/share/_DzXZONw7DQ8e7DJ5eEMi
https://x.com/i/grok/share/G53QXbgIdRcb5DqCerDT4qaFZ
很不错! 虽然DS还是有些严谨,但它贴代码的能力很强,让人感觉不到生硬(这点中国AI可能普遍更强,问题是太做题家)
最重要的是,DS的「领域全局观」很强,能结合灵感和 living standard 实践。
这种程度的教条主义,非常适合在grok3之后阅读,然后是kimi2 (从灵感越来越偏向于现实妥协),最后是SOTA的G3(高费LLM)
Please open Telegram to view this post
VIEW IN TELEGRAM
duangsuse::Echo
这次的结果比较失败😅 我已经努力备稿了,但回答质量还和Gemini的版本、WEB数据集相关
https://chat.librechat.ai/share/9Hf8poCH6ELbxOuWAtM-R #ai #tool
DS3.2 的“表现力”更差,但更加适合有基本功的人阅读 (上条说的「形式化验证」就暂时不讲了,要 #vibe 嘛),最重要的是便宜8倍
我花了几个小时缝合Gemini的4个答案串,希望能优化追问的质量,回头贴上。😅
https://chat.librechat.ai/share/7qAk4DtR2yryMmXbFXSJS #ts #sql #plt 看过了,很不错
#post #加入套餐 抽象解释、符号执行、污点值传递(progurad 做不到这么精细)
https://chat.librechat.ai/share/-rZrNF-UqZoRL8h58etCn😒
https://chat.librechat.ai/share/DhFAi6LcDMgJVRRv5pRHY 类型系统还能用来 #reveng
https://x.com/i/grok/share/gzQnI2916tLMlNWPtyoa59n5t
https://chat.librechat.ai/share/BjZyFc8Twa42gHsR_Yk47
可能纯技术问题DS比G2.5更好用?对于大陆用户
DS3.2 的“表现力”更差,但更加适合有基本功的人阅读 (上条说的「形式化验证」就暂时不讲了,要 #vibe 嘛),最重要的是便宜8倍
我花了几个小时缝合Gemini的4个答案串,希望能优化追问的质量,回头贴上。
https://chat.librechat.ai/share/7qAk4DtR2yryMmXbFXSJS #ts #sql #plt 看过了,很不错
#post #加入套餐 抽象解释、符号执行、污点值传递(progurad 做不到这么精细)
https://chat.librechat.ai/share/-rZrNF-UqZoRL8h58etCn
https://chat.librechat.ai/share/DhFAi6LcDMgJVRRv5pRHY 类型系统还能用来 #reveng
让我们聊聊sourceless的调试(探针模式)
其实,静态类型就是在sourceless(无变量名)黑盒下的一种可观测性,它和模块划分、内存分配高度绑定
同时,类型也相当于一种“符号ID”,可以匹配不同版本、不同package里的相同代码
类型系统并不只是在“无源码做assert”或沟通API时起作用,它的本质是对程序行为的观测
这种观测可以延伸到runtime。即使对混淆过的控制流,不去推测其内部逻辑,只是hook平台的基础API(例如图层和键鼠函数),我们也能通过“指针污染”还原一定的逻辑
如果对基础API间组合关系的分析,能够进行codegen,并增量的patch到原有“汇编”,这就是动态分析的反混淆
九成情况下,AOP不是要完全获取source,而是要“理解”功能点间的联系,就像CheatEngine的数值搜索-锁定或A11y的检测点击一样。 安全界对此的认识到什么程度呢? Ghidra,x64dbg,r2 都很好,但它们对程序似乎不是“语义化理解”,限于还原符号
https://x.com/i/grok/share/gzQnI2916tLMlNWPtyoa59n5t
https://chat.librechat.ai/share/BjZyFc8Twa42gHsR_Yk47
我们不考虑二进制,或语言的AST或对象系统这些表象
type infer 究竟和这种“反混淆过程”多相似?
注意,二者都是在追溯已知“点”和“箭头”间的联系,从而推出新箭头乃至新点。
静态类型是用字面值的传导,推理箭头函数的形状,比如参数数量。在一个全部def均是SSA块(不含for,if)的代码树上,这一点非常明显。包含if或异常时它通过 union type 与类型变量,来更准确的表达点和箭头的联系。
动态分析是用污点返回值的传导,推理“箭头语句块”的流向,并探知新语句块的存在、新返回值的意图。
可能纯技术问题DS比G2.5更好用?对于大陆用户
Please open Telegram to view this post
VIEW IN TELEGRAM
duangsuse::Echo
开源 #ai #news https://t.me/hyi0618/9815?comment=142646 DeepSeek-V3.2 的目标是平衡推理能力与输出长度,适合日常使用,例如问答场景和通用 Agent 任务场景。在公开的推理类 Benchmark 测试中,DeepSeek-V3.2 达到了 GPT-5 的水平,仅略低于 Gemini-3.0-Pro;相比 Kimi-K2-Thinking,V3.2 的输出长度大幅降低,显著减少了计算开销与用户等待时间。 DeepSeek-V3.2 的思考模式也增加了对…
#vibe #draft GBA平台的混合成框架与可观测性
用 Linux mednafen, Mame 玩掌机游戏曾经是我的“小游戏”乐园。😃
本来以为AI时代就可以vibe一个和平台一样大的东西(或许FC可以吧..),发现是ARM7TDMI就萎了😅
其实,就连Flash平台的开源调试都只有FFDec,某些VM写成解释器卡的要命。想要F12那种程度的可观测,根本想都别想
为什么呢? 因为,与其说这些领域的SDK(ABI也算一种)是在服务业务逻辑,不如说他们不知道业务的“特点”究竟是哪些,他们用类似于LLM的方法编程实现,也只有实现而已!
没法把语义和ARM这些下层平台剥离开来,自然不可能做到F12那种程度,就像在UI/UX领域,js和其他UI框架栈的质量也是天上地下。
https://x.com/i/grok/share/VgAFwTWKxAJW0dgHxC82EV7uL
https://chat.librechat.ai/share/XrtVCNER6wZ_uTETDVOYP #ai分叉
https://docs.huihoo.com/media/gba/
#reveng Grok给我答错了,DS好文明 https://chat.librechat.ai/share/HXuwzpWSJP1MsrVOVManf
用 Linux mednafen, Mame 玩掌机游戏曾经是我的“小游戏”乐园。
本来以为AI时代就可以vibe一个和平台一样大的东西(或许FC可以吧..),发现是ARM7TDMI就萎了
其实,就连Flash平台的开源调试都只有FFDec,某些VM写成解释器卡的要命。想要F12那种程度的可观测,根本想都别想
为什么呢? 因为,与其说这些领域的SDK(ABI也算一种)是在服务业务逻辑,不如说他们不知道业务的“特点”究竟是哪些,他们用类似于LLM的方法编程实现,也只有实现而已!
没法把语义和ARM这些下层平台剥离开来,自然不可能做到F12那种程度,就像在UI/UX领域,js和其他UI框架栈的质量也是天上地下。
https://x.com/i/grok/share/VgAFwTWKxAJW0dgHxC82EV7uL
https://chat.librechat.ai/share/XrtVCNER6wZ_uTETDVOYP #ai分叉
https://docs.huihoo.com/media/gba/
#reveng Grok给我答错了,DS好文明 https://chat.librechat.ai/share/HXuwzpWSJP1MsrVOVManf
> libretro的接口是什么层次的? 不会是一个ev/input+fb+sound 吧?还是,它负责类似MIDI的混合成?
简单来说,它就是个黑箱,类似 canvas+PCM+mouse/keyup ,图形没有层,只是bmp ……
tasvideos.org/Bizhawk 提供了完整的 mmap hook、PPU 寄存器、音频通道分离
#awesome
https://x.com/i/grok/share/i4YuHalu9C2pSaFpb6AgRTD7B
https://gist.github.com/aldelaro5/d532b21b5e2ec48d5f78e81846c1c1b7
https://github.com/michelhe/rustboyadvance-ng#:~:text=Incredible%20test%20suite
- https://felixjones.co.uk/mgba_gdb/vscode.html
- https://gbadev.net/tonc/setup.html
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from dnaugsuz
https://github.com/MoonshotAI/kimi-cli/issues/405#:~:text=「提示字编程语言
这哥们是结构化编程和“typehint”写魔怔了,没有认识到LLM是在「语意」层面写代码呢,还和某些人那样觉得写个PEG+语法高亮就叫元编程呢。
我上次用Gemini聊“符号执行、抽象解释”,怎么都没有想到这些有的没的、形式主义…… REPL的状态? AIGC+code interpreter+MCP 才是真正的REPL workflow
他的大意是,觉得prompt时用这种又臭又长的“DSL”可以提高模块化、减少返工 ——只要解决 context len 导致注意力分散的,Transformer自己的问题?
他还觉得,可以把既有代码、断言前后件、副作用和异常(恕我直言,论对 edge case 的把握Gemini吊打你),甚至并发和导入这些杂事让人来卡死,从而让AI替代 gcc -O3 (更疯狂的“AI即codebase论”我就不拆解了)
虽然他的文字类似草履虫语言,我还勉强能get到一些思想。
为什么要觉得人应该把意图细化到手写DSL? DNN 正在使用更优秀的方法「理解」编程语言,这样,才能把它和人类的情感、灵感、实践经验相结合,而不是单纯的TDD或review。
我们应该重视结构的机械解释性,但更重要的是,要在语意的层面设计心智模型,降低认知成本,而不是觉得像“人工智能实验室”的Lisp那样,能和堆栈、树状图对应起来的才叫智能。
都已经是开发者了,还把接近AGI的“队友”当作Agent一样来用, “你是一个XXX”的,其实是不尊重LLM,也不会获得优质的output。
DS3.2:它像是为马车时代设计交通规则,却试图用它来管理高速公路。……500B语义LLM,被降格为一个“超级解析器”,这相当于让一个博士生去做语法分析。
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
一个创新的想法 || An innovative idea · Issue #405 · MoonshotAI/kimi-cli
What feature would you like to see? 改进性能 Additional information No response What feature would you like to see? Improve performance Additional information No response