LinuxDo 新帖推送
180 subscribers
249K photos
310K links
Download Telegram
标题: 马上要过年了,佬友们都是哪天开始休假呀?
作者: #anarkh
板块: #搞七捻三
编号: 1562332
帖子: https://linux.do/t/topic/1562332
时间: 2026-02-04 09:00:50
摘要:
佬友们都是哪天开始休假哇,休多少天呀,今年准备就休个前1或者前2
标题: 菜谱管理和点餐系统推荐
作者: #蜡笔
板块: #开发调优
编号: 1562336
帖子: https://linux.do/t/topic/1562336
时间: 2026-02-04 09:01:47
摘要:
年夜饭大师 - 智能菜谱管理与点餐系统

金蛇献瑞迎新春,阖家团圆年夜饭


项目概述
年夜饭大师是一款专为2025年春节年夜饭打造的手机端应用程序,提供从菜谱准备到点餐上桌的全流程数字化管理。无论是家庭聚餐还是餐厅宴席,都能轻松搞定!支持多人协作点餐、实时状态追踪,让年夜饭筹备从容不迫。

核心功能
菜谱管理模块

增删改查 (CRUD) - 完整的菜谱生命周期管理
图片上传 - 菜品美图展示,支持多图轮播
智能分类 - 按菜系/口味/食材/烹饪方式多维度分类
快速检索 - 支持食材搜索、烹饪时间筛选
评分系统 - 记录每道菜的好评度,优选年夜饭菜品

智能点餐模块

创建订单 - 一键生成年夜饭菜单,支持多人协作
状态跟踪 - 实时显示:待准备 → 烹饪中 → 已上桌
时间规划 - 智能排期,避免厨房手忙脚乱
人数适配 - 根据聚餐人数自动调整食材分量
成本估算 - 实时统计预算,年货采购不超标
标题: 目前美区的稳定谷歌账号去哪搞便宜且靠谱
作者: #leonsong
板块: #搞七捻三
编号: 1562343
帖子: https://linux.do/t/topic/1562343
时间: 2026-02-04 09:03:21
摘要:
想要搞几个账号,组家庭组,之前在闲鱼20一个,有没有更便宜的渠道呀。1年以上的美区
标题: OpenAI:我们提升了GPT-5.2的速度...
作者: #chillway
板块: #搞七捻三
编号: 1562351
帖子: https://linux.do/t/topic/1562351
时间: 2026-02-04 09:04:38
摘要:
提(降)升(低)速(智)度(商)
标题: 头像的动态转圈
作者: #托马斯
板块: #搞七捻三
编号: 1562353
帖子: https://linux.do/t/topic/1562353
时间: 2026-02-04 09:04:59
摘要:
看到有部分佬友在发帖的头像有动画的效果,请问下这个如何有的呢?与等级有关系吗?
标题: 元宝一期提现开始,进入元宝APP直接提现,各位佬,有中小马卡的吗??
作者: #寂然如故
板块: #福利羊毛
编号: 1562357
帖子: https://linux.do/t/topic/1562357
时间: 2026-02-04 09:05:50
摘要:
你们收获几何???
标题: 我感觉Codex不是变快了,是变懒了。让Codex糊了一个小补丁,默认开启execute模式而不是code模式
作者: #lueluelue
板块: #开发调优
编号: 1562371
帖子: https://linux.do/t/topic/1562371
时间: 2026-02-04 09:08:10
摘要:
github.com






GitHub - lueluelue2006/codex-enable-execute-pair-macos: macOS-only patch script to re-enable Codex CLI TUI...

macOS-only patch script to re-enable Codex CLI TUI Execute/Pair modes (tested on 0.94.0)












git clone https://github.com/lueluelue2006/codex-enable-execute-pair-macos.git
cd codex-enable-execute-pair-macos
npm i -g @openai/codex@0.94.0
./bin/codex-repatch-modes


仅支持 macOS
已在 @openai/codex@0.94.0 验证可用
标题: 这是值得纪念的一刻
作者: #江湖义气
板块: #搞七捻三
编号: 1562378
帖子: https://linux.do/t/topic/1562378
时间: 2026-02-04 09:10:05
摘要:
标题: 新人报道,默默观望好久,终于进来了!
作者: #Summernight
板块: #搞七捻三
编号: 1562384
帖子: https://linux.do/t/topic/1562384
时间: 2026-02-04 09:11:05
摘要:
通过anyrouter和测速公益站的方式了解到咱们站,默默观望了好久,终于被一位好心大佬拉进来了!
今天早上刷到字节、快手等等内部研发禁用claude等等,那他们都是在用自研模型吗?佬们是如何看待这个事情的呢?
标题: ⚠️A股存在局部过热的风险
作者: #𝓕-𝓓𝓻𝓸𝓲𝓭
板块: #搞七捻三
编号: 1562395
帖子: https://linux.do/t/topic/1562395
时间: 2026-02-04 09:12:38
摘要:
历史好像又在重演,有一件事让我后背发凉,今天必须要说出来,仁者见仁智者见智,最好是我想错了,但总比不说的好。
我最近翻数据发现一些数字非常的奇怪,科创50的市盈率已经超过了170多倍,中证2000指数超过了160倍,卫星产业指数360多倍,2015年丰牛的时候,创业板冲到了最高点的时候也就140倍左右,现在这些指数的估值泡沫比当年创业板的顶峰还要夸张,170倍意味着如果靠公司目前的利润回本需要超过170年。我知道你想说什么,但先不要着急反驳,听我先把话讲完,这感觉很熟悉了,真的是梦回2015年第一个相同的一点都是故事驱动,业绩跟不上,2015年讲的是互联网加的故事,全通教育爆峰科技这些神话,现在讲的是AI加机器人故事,一个比一个性感,未来都是一个比一个宏大,但绝大多数的公司商业化进度才走了1%,股价已经透支了100年,我担心的是业绩追不上现在估值的增长。
第二个相同的点就是2015年是杠杆牛,所以后来跌的很惨,现在大a的两融余额已经有2.73万亿,这个数已经比2015年牛市最高峰的时候还要高,杠杆是牛市的发动机,也是崩盘的加速器,这点是一直没有变的。
第三个相同点就是监管开始敲警钟了,2015年市场突变是因为监管开始查配资,今年是1月14号交易所上调融资保证金,15号国家队开始大笔的减持,之前就是买的ETF基金加上最近连续查违规查游资,其实信号已经很明确了,上面觉得太热了要降温。第四个相同点,以前根本不关心股票的人,现在都已经开始问股市了。
股市这样的话题变得越来越多,2015年也是全民炒股,辞职炒股的时候开始崩盘的,这种时候往往是最需要警惕的时候,但是历史它不会完全一模一样的,最大的不同在于2015年是全面的疯牛,几乎所有的股票都在飞,但现在是结构性的慢牛行情极度的分化,你去看沪深300的红利指数,白酒畜牧业估值都还在历史低位趴着,根本就没有怎么疯涨,主要还是那些科技成长股,这意味着如果是泡沫破裂可能不是系统性的全面股灾,而是一次剧烈的结构性出清,还有风格的切换,另一个关键的不同在于谁在接国家队的盘,从1月14号到现在已经从ETF里退了将近1万亿了,这么多钱到底是被谁接走了?
融资盘很少,一部分是基金保险这些长线机构的资金,他们接盘图的是长线配置,不是短期的短线炒作,但是还是有7000多亿来源不明,这非常值得警惕。
综合来看我的判断是不会出现15年那样的全面股灾,但一场针对高估值题材股的局部风暴难以避免,我们该怎么办?记住16个字,远离泡沫,留住本金,等待错杀,拥抱价值。
第一,对那些纯讲故事、没有基本面的微盘股、题材股要坚决远离,而且就连他的故事信的人都很少,一旦风向转变踩踏就会非常的惨,不要接最后一棒。
第二,实施边打边撤的策略,如果说你手里还有这类获利丰厚的品种,要逐步兑现利润了,把浮盈变成真金白银落袋为安,你的心态就完全不一样。
第三,把一部分仓位转移到更安全的地方,现在哪里最安全?一是低估值的蓝筹,比如红利、农产品、畜牧业、零食、饮料每户这些市盈率可能就10倍左右,股息也很高,跌无可跌了已经,当然现在有很多人看不上。
第四,拿出真正的核心资产,因为科技强国创新强国的底层逻辑是不会变的,比如AI里面真正有护城河,有真实业绩订单的,如果被市场情绪错杀,反而是中期布局的机会。
最后,不要杠杆,学会空仓,不要总想着满仓满融,一定要留出一定的现金,不是为了看戏,而是为了真正等到那场局部风波来临的时候,你还有弹药去捡那些被错杀的优质筹码。2015年的教训是当所有人都沉浸在故事里的时候,故事往往要讲完了,今天就说到这,咱们下一篇文章不见不散。
标题: 一个AI新闻周报管理和展示系统,提供动态生成、自动排序和响应式展示的功能。可以通过该系统轻松管理和展示AI相关的新闻周报,支持实时搜索、筛选和统计功能。
作者: #白玉京
板块: #资源荟萃
编号: 1562398
帖子: https://linux.do/t/topic/1562398
时间: 2026-02-04 09:12:47
摘要:
ai_news_card-动态列表系统
一个AI新闻周报管理和展示系统,提供动态生成、自动排序和响应式展示的功能。可以通过该系统轻松管理和展示AI相关的新闻周报,支持实时搜索、筛选和统计功能。
包括智能序号管理、动态数据加载和自动统计面板,可以通过简单的操作添加新周报,并实时查看更新的内容。
项目地址:
https://github.com/SilenceBoy/ai_news_card
演示网站:点
https://news.silencebin.com/
界面比较友好,有需要的佬友可以试试看
标题: 有没有macmini接1k显示器的佬友
作者: #潘好好好好
板块: #搞七捻三
编号: 1562408
帖子: https://linux.do/t/topic/1562408
时间: 2026-02-04 09:14:05
摘要:
有没有macmini接1k显示器的佬友,个人现在还是20年Intel的mbp,想换miniM4了,家里有个redmi4k,但是现在公司配的Windows台式机+两块1k显示器,想带来上班用,反正揣兜里就能带走,就是不知道开了hidpi显示效果怎么样,有没有佬友可以解答一下
标题: 我的谷歌账号回来了!!
作者: #HanPaoPao
板块: #搞七捻三
编号: 1562411
帖子: https://linux.do/t/topic/1562411
时间: 2026-02-04 09:14:36
摘要:
昨天用gemini的时候发现谷歌号登不上去了,俺的pro3还是本站一个大佬给的家人组位置(唯一一次中过的福利),十分舍不得。但是我这个号是自己刚注册不久,害怕时间太短谷歌不给通过。
抱着买彩票的心理去申诉了一下,理由基本就是抱怨谷歌在干什么,莫名其妙封我号之类的,纯中文抱怨。然后申诉发完感觉凉了,非常担心,就给回复我等待消息的那个谷歌的账号noreply@google.com 发了个英文情况说明(去网上抄的,一大堆模板),然后今天早上收到邮件,说批准了我的访问权限恢复请求。哭死,我aistudio里的项目可以看了,这次我一定要先下载保存一份,不然账号出问题,登不上去,辛辛苦苦弄了好几天的伟大项目都找不到!今天立春,希望新得一年,佬们都顺顺利利,马到成功
标题: Qwen3-Coder-Next 发布了
作者: #arch
板块: #前沿快讯
编号: 1562412
帖子: https://linux.do/t/topic/1562412
时间: 2026-02-04 09:14:41
摘要:
Qwen3-Coder-Next 发布了,这参数有点东西。
虽然是 80B 的总参数量,但激活参数只有3B。这意味着它保留了千亿级模型的知识容量,但推理开销极低,非常适合本地跑Coding Agent。支持 OpenClaw、Qwen Code、Claude Code、网络开发、浏览器使用、Cline 等。
官方提到训练数据用了 800K 个可验证任务 + 可执行环境,而不是单纯灌代码文本。这在 SWE-Bench Pro 上的表现应该会比较稳。
目前已经适配了 Cline、OpenClaw 和 Claude Code。想在本地跑高智商 Agent 的可以试下
Hugging Face: Qwen3-Coder-Next - a Qwen Collection
ModelScope: https://modelscope.cn/collections/Qwen/Qwen3-Coder-Next
标题: 家庭组是不是可以组内共享
作者: #巧巧灬
板块: #搞七捻三
编号: 1562414
帖子: https://linux.do/t/topic/1562414
时间: 2026-02-04 09:15:38
摘要:
就是不一定是组员共享管理员,也可以是其他成员共享某个组员,有没有佬友试过?
标题: cx提速了?
作者: #火凤凰
板块: #前沿快讯
编号: 1562434
帖子: https://linux.do/t/topic/1562434
时间: 2026-02-04 09:17:18
摘要:
这梯子不知道怎么了,l站可以进,x总是有点问题,有么有大佬看到新闻是真的嘛?
标题: 我的开源项目上 HelloGithub 月刊了🎉
作者: #神奇的程序员
板块: #开发调优
编号: 1562436
帖子: https://linux.do/t/topic/1562436
时间: 2026-02-04 09:17:39
摘要:
在线体验地址:https://nginx-pulse.kaisir.cn/
GitHub地址:GitHub - likaia/nginxpulse: 轻量级 Nginx 访问日志分析与可视化面板,提供实时统计、PV 过滤、IP 归属地与客户端解析。
dockerhub地址:magiccoders/nginxpulse - Docker Image
标题: 怎么感觉今年放假没什么动静呢?
作者: #wu
板块: #搞七捻三
编号: 1562446
帖子: https://linux.do/t/topic/1562446
时间: 2026-02-04 09:19:25
摘要:
怎么感觉今年放假没什么动静呢?每天坐地铁还是人挤人,找不到坐!
标题: 今天立春,一首打油诗送给各位佬
作者: #JIA GUO
板块: #搞七捻三
编号: 1562454
帖子: https://linux.do/t/topic/1562454
时间: 2026-02-04 09:19:57
摘要:
祝,各位佬:
立春启新程,代码沐和风。
Bug随冬尽,架构似春生。
逻辑抽新绿,算法绽华明。
键盘敲暖意,智识润无声。
骏业腾云起,鸿途共岁荣!
标题: 姆级教程让 OpenClaw 节省 10 倍 Token 消耗
作者: #zimous
板块: #开发调优
编号: 1562457
帖子: https://linux.do/t/topic/1562457
时间: 2026-02-04 09:20:37
摘要:
如果你在用 OpenClaw,应该已经感受到了 token 消耗的速度 尤其 Claude 用户,没谈几轮下来就 hit limit 了。而且,很多时候 agent 塞了一堆无关信息进 context,不仅费钱,还影响精准度。
有没有办法让 agent “精准回忆”,同时完全零成本?有。
qmd —— 本地运行,免费永久,精准度 95% 以上。

qmd 是 Shopify 创始人 Tobi 做的本地运行的语义搜索引擎,基于 Rust,专为 AI Agent 设计。核心功能包括混合搜索(BM25 全文 + 向量语义 + LLM 重排序),零 API 成本,完全本地运行,且支持 MCP 集成。
3 步配置,10 分钟搞定
第 1 步:安装 qmd
需要先安装 Bun,然后执行:
bun install -g github:tobi/qmd

首次运行会自动下载模型(Embedding 和 Reranker),下载完成后即可完全离线运行。
第 2 步:创建记忆库 + 生成 embeddings
进入 OpenClaw 工作目录,索引你的 memory 文件夹:
# 创建记忆库
qmd collection add memory --name daily-logs --mask "**/*.md"

# 生成 embeddings
qmd embed

索引速度极快,本地运行不联网。
第 3 步:测试搜索
# 混合搜索(最精准)
qmd query "关键词"

# 纯语义搜索
qmd vsearch "关键词"

进阶:MCP 集成
让 AI agent 直接调用 qmd,在 mcporter.json 里加一段配置:
{
"mcpServers": {
"qmd": {
"command": "/Users/你的用户名/.bun/bin/qmd",
"args": ["mcp"]
}
}
}

配置好后,agent 会主动从历史 log 中找最相关的段落,跨文件精准回忆,不再靠你手动提醒。

实际效果

场景 1:回忆用户偏好。不再需要把整个 2000 token 的 MEMORY.md 塞进去,qmd 只返回相关的 200 token,省钱又精准。
场景 2:跨文件知识检索。自动从所有 memory 文件中找最相关段落,准确率极高。

如果你在用 OpenClaw 觉得 token 烧得心疼,赶紧折腾起来。
标题: GLM-OCR发布了
作者: #arch
板块: #前沿快讯
编号: 1562461
帖子: https://linux.do/t/topic/1562461
时间: 2026-02-04 09:22:05
摘要:
GLM-OCR发布了,参数量控制在0.9B。
现在的趋势是OCR模型越来越轻量化。虽然不到1B,但官方给的数据在公式识别、表格还原和信息提取上都是SOTA级别。
这意味着在普通服务器甚至端侧设备上,也能跑得动高精度的文档结构化任务。对于算力有限但又需要处理复杂PDF的场景(比如发票、论文),这个小模型是个不错的补充。
权重已上 Hugging Face。

Weights: zai-org/GLM-OCR · Hugging Face
Try it: http://ocr.z.ai
API: GLM-OCR - Overview - Z.AI DEVELOPER DOCUMENT