LinuxDo 新帖推送
180 subscribers
249K photos
310K links
Download Telegram
标题: 终于来到L站了
作者: #MOJI
板块: #搞七捻三
编号: 1847423
帖子: https://linux.do/t/topic/1847423
时间: 2026-03-29 21:27:09
摘要:
各位佬好 我是moji辞书以及moji其他产品的web开发 很高兴来到L站啊 还请以后各位佬多多指教
标题: codex拉闸后试用了一下glm5.....
作者: #WReck
板块: #国产替代
编号: 1847428
帖子: https://linux.do/t/topic/1847428
时间: 2026-03-29 21:27:45
摘要:
最近一直在优化一个多平台下载器的项目,web端、ios端都做了,算是我第一个vibe coding的项目吧 ,主要就是给我自己方便下点抖音小视频的,ios的deeplink也做了,基本就是抖音分享页里面点一下app跳转拉起页面自动解析再选画质下载就行了,专为我这样的懒人服务了。
这一套就只有最开始一个前后端架子是用的cc+minimax2.5搭的,发现国模拉垮的很就换5.3codex和后面的gpt5.4做主力开发了,全程一行代码也没敲(我自己虽然是干java的,但这个项目的技术栈命中我的就只有个mysql),就把控一下项目总体方向和当个牛马测试员,下面贴几张图大概看看。







跑题了,重点来了,今天codex拉闸了没得蹬的,想着薅一个佬友放出来的阿里codingplan试试glm5现在还能不能用了,如果能有gpt5.4八成功力也成了,就让他真实项目里跑一跑帮我改一下ios端用户页的ui,那个布局太丑了让他重新调整一下。
skill就用的gstack的这一套,跑了一遍autoplan就发现不对了,如果是gpt的话跑一轮基本就直接过了,也不会review出什么问题,glm5我直接跑了三轮最后还是有点问题,我懒得搞了直接先让他执行了。
但是glm5第一点就是话太少,话少其实不算优点,它说的少你对它制定的plan理解程度就会偏低。
第二点就是速度太快,这个明显就是推理强度不够了,属于是硬伤,哪怕我已经开了high effort了,明显就是做的快想的少。
第三点就是出现了中英文随机切换的情况,做的plan里面中英文混杂在一起几乎达到了各占50%,这是gpt没有出现过的。
第四点就是一次改不到位,有明显的bug,布局设计的也蛮丑的,让他改第二次,改完还是有bug,我直接放弃了删分支了,这次测试真是又验证了一遍我一个月前用国内版trae的结论,纯是一大坨。编程能力真的是隔着一条河了,真是没招了,还得想办法搞gpt的订阅了
标题: 【周回顾】基于AI的过去一周新闻分析(0322-0328)
作者: #Nightone
板块: #前沿快讯
编号: 1847430
帖子: https://linux.do/t/topic/1847430
时间: 2026-03-29 21:28:02
摘要:
新闻源:BBC NEWS 中文、FT中文网、法广RFI、36氪、虎嗅、爱范儿、少数派、人民日报、求是网、21世纪经济报道、央视新闻等
由AI对一天的新闻进行汇总分析,一周后再由AI分析一周的新闻并给出报告
时间范围:2026-03-22 ~ 2026-03-28









新闻在这:
0322-0328.zip (494.8 KB)
标题: 感觉deepseek是要更新了?猜的
作者: #xiaohan
板块: #搞七捻三
编号: 1847435
帖子: https://linux.do/t/topic/1847435
时间: 2026-03-29 21:28:36
摘要:
我用deepseek还是第一次遇到这个…
标题: Meta 下一代 AI 模型 “Avocado” 详细再度曝光
作者: #Bunn
板块: #前沿快讯
编号: 1847480
帖子: https://linux.do/t/topic/1847480
时间: 2026-03-29 21:36:49
摘要:
Meta 公司备受期待的下一代人工智能模型(内部代号为 “Avocado”,意为“牛油果”)的研发现状,似乎比外界此前预期的要复杂得多。
据《纽约时报》等媒体报道,由于内部测试显示该模型在性能上仍落后于谷歌(Google)、OpenAI 和 Anthropic 的顶尖系统,Meta 已将其发布时间从 2026 年 3 月推迟至至少 5 月。然而,从 Meta AI 界面泄露的最新证据表明,该公司正在幕后进行大规模的并行实验,甚至在部分请求中调用了竞争对手谷歌的 Gemini 模型。
泄露的 Meta AI 内部模型选择器显示,Meta 正在评估多种不同配置的 Avocado 变体,旨在覆盖从轻量化到多模态的各种应用场景:

Avocado 9B:拥有 90 亿参数的小型化版本,可能针对移动端或快速响应场景。
Avocado Mango:带有“智能体”(Agent)和“子智能体”标签,似乎是一个具备图像生成能力的多模态变体。
Avocado TOMM:全称为“多模型工具”(Tool of Many Models),专注于工具调用和集成。
Avocado Thinking 5.6:Avocado 推理模型的最新版本,旨在强化逻辑思考能力。
Paricado:一款纯文本的对话模型。



如此众多的“发布候选版”(Release Candidates)表明,Meta 目前尚未最终确定哪种配置将作为正式版推向市场。
尽管 Avocado 在处理复杂数学问题上比早期的 Llama 模型有了显著进步,但内部评估显示,这些问题在数月前就已经被 Gemini 3 和 GPT-5 轻松解决。
这种性能上的差距已引发 Meta 高层的严重关切。据报道,Meta AI 领导层甚至讨论过临时向谷歌购买 Gemini 技术许可的可能性。目前的 A/B 测试证实,Meta 已经在部分请求中路由至 Gemini 模型,采取一种“分层处理”的策略:在 Avocado 尚未完全成熟前,利用外部模型填补能力空白。



TestingCatalog –