linux.do
20.7K subscribers
105K photos
192 videos
109 files
232K links
linux.do最新话题和热议话题
Download Telegram
请问佬们,现在有没有能跑的realtime/streaming visual LLM on device项目?

我想要能直接安卓、iOS部署的,但直接Google搜的话,只能搜到一些PC端的demo

不知道Qwen2-OMNI-flash转个ONNX,能不能做到近实时?

2 posts - 2 participants

Read full topic

via LINUX DO - 最新话题 (author: MorryWang)
英特尔AI主管跳槽OpenAI,负责计算基础设施建设

近日,英特尔的首席技术与人工智能官萨钦・卡蒂(Sachin Katti)正式宣布离职,转投 OpenAI,担任公司的基础设施建设负责人。这一消息于当地时间 11 月 10 日公布,迅速引发业内广泛关注。卡蒂的离开标志着英特尔在人工智能领域的一次重要人事变动。

英特尔在一份声明中表示,将由现任首席执行官陈立武接替卡蒂的职位。尽管面临人事变动,英特尔重申了人工智能在公司战略中的重要性,强调将继续推进新兴 AI 工作负载的技术与产品路线图。英特尔的这一立场反映出他们对 AI 市场的重视,以及希望在这一领域保持竞争力的决心。

与此同时,OpenAI 的联合创始人兼总裁格雷格・布罗克曼在社交媒体上热情欢迎卡蒂的加入,并表示他将负责 “设计和构建公司的计算基础设施”。这项工作对于 OpenAI 来说至关重要,随着人工智能技术的不断发展,强大的计算基础设施将为公司的未来发展提供坚实支撑。

Source: 英特尔AI主管跳槽OpenAI,负责计算基础设施建设

1 post - 1 participant

Read full topic

via LINUX DO - 最新话题 (author: Bunn)
TG必备的搜索引擎,极搜帮你精准找到,想要的群组、频道、音乐 、视频

👇👇👇点击下方按钮,进行搜索
维基百科呼吁 AI 公司停止 “白嫖” 内容,推广付费 API 服务

维基媒体基金会(Wikimedia Foundation)发布了一项公开声明,强烈要求人工智能(AI)公司停止使用自动化程序抓取维基百科内容,并建议他们使用付费 API 产品 ——“维基媒体企业平台”(Wikimedia Enterprise)。此举是为了保护维基百科的资源和可持续发展。

维基媒体基金会指出,近年来 AI 公司通过网络抓取大量维基百科内容,严重消耗了其服务器资源,并影响了网站的正常运营。基金会希望,AI 开发者能够负责任地使用维基百科的知识库,维护信息的准确性和来源的清晰性。

根据基金会的要求,AI 公司应当停止直接抓取维基百科的数据,而是转向使用 “维基媒体企业平台”,这一平台专为大规模数据使用设计,旨在提供一个更加可持续的合作模式。通过这一付费产品,AI 公司可以更高效地获取数据,减少对维基百科服务器的压力,并通过支付费用支持维基百科的非营利使命。

维基百科目前正面临着用户流失的挑战,近期数据显示其人类用户访问量同比下降了8%。这一下降趋势可能会威胁到维基百科的核心运营模式,因为他们依赖公众的访问来吸引志愿者和捐赠者。为了应对这一情况,维基百科希望 AI 公司能够重视内容的来源归属,尊重数百万志愿者的贡献,以增强公众对信息的信任。

维基媒体基金会的呼吁是希望 AI 公司能够与他们建立一种互惠互利的合作关系,通过付费方式支持维基百科的可持续发展

Source: ​维基百科呼吁 AI 公司停止 “白嫖” 内容,推广付费 API 服务

4 posts - 4 participants

Read full topic

via LINUX DO - 最新话题 (author: Bunn)

Invalid media: image
有必要上32G运存吗

题主把摸鱼的iPad出掉了(用web VSCode写代码写红温了),换了一台ROG 幻X 2023,原机带16G板载内存,淘宝上有扩容32G服务,想问问各位佬,玩游戏(玩HUNT、MC还有RON),做开发(C# .Net比较多一些,IDE是Jetbrain家的),16GB内存够用吗

2025年11月11日 17:56:15补充:看了佬友的建议,打算去扩到32GB内存

顺带问一下,板载16G运存扩容32GB 报价¥1200,值吗?

40 posts - 29 participants

Read full topic

via LINUX DO - 最新话题 (author: 核心不是线程)
在天猫超市买的拯救者似乎是摸摸机怎么办是去还是留

本人在11月6日晚上11点在天猫超市买了一台拯救者r9000p

(因为没抢到国补,有政府补贴2000元)在11月9日到货后跟着网上教程验机结果如下

看到已激活心态崩了当时就找客服理论后面打了两个电话给我没接到发我了一个短信说是正常现象

想问问佬们能留吗:tieba_009:
2 posts - 2 participants

Read full topic

via LINUX DO - 最新话题 (author: weixu)

Invalid media:
image
image
image
image
image
写了个工作流系统

前后端已经完成,前端通过拖拽设计流程,后端执行引擎根据节点配置进行执行。

历时 2年,中间 写了删-删了重写-搞了6、7个中间版本。前端vue3-ts-element-plus 那一套,后端Java17

设计,开发,改bug 前后端1个人搞定

53 posts - 18 participants

Read full topic

via LINUX DO - 热门话题 (author: web3_song)

Invalid media:
image
image
[统计分析] 甲骨文封号与是否保活无关

背景

一般认为甲骨文在注册成功后,需要保活,也就是不被回收闲置计算实例规则噶掉。

保活主要有两种:

1. 通过重装自定义系统(dd)绕开甲骨文在你机器上预装的监控服务。
2. 保活脚本:如 NeverIdleOracle-server-keep-alive-script

于是之前发起了一个投票甲骨文保活方法与封号的关联性来统计 dd保活脚本以及不保活的情况下,甲骨文的封号情况。总共三个问题,如下:

(1/3) 佬友的甲骨文云账号被封过吗?




(2/3) 如果佬友被封过,你采取的保活措施是?

dd 了系统
保活脚本
没保活,空载
没保活,负载高

(3/3) 如果佬友没被封过,你采取的保活措施是?

dd 了系统
保活脚本
没保活,空载
没保活,负载高

本文根据投票结果进行了统计分析。

统计数据

根据问卷所提供的两个条件分布,可以形成一个交叉表(由于有人未按标准作答或样本群体不同;下文会给出加权敏感性分析)。

● 被封过(来自 Q2,共 55) dd 了系统:20 没保活,空载:17 保活脚本:13 没保活,负载高:5
● 没被封过(来自 Q3,共 91) 没保活,空载:32 dd 了系统:29 保活脚本:20 没保活,负载高:10

合并成列联表(行=封号状态;列=保活方式):
置信区间为 Wilson 95% 区间。可以看到区间很宽,彼此大量重叠。


结果分析

● 2×4 卡方独立性检验:χ²=0.55,自由度=3,p=0.907● Cramér’s V=0.062(效应量极弱)。
把方法合并成保活(dd 或脚本)vs不保活(空载或高载)保活:33/82=40.2%(95%CI: 30.3–51.1%) 不保活:22/64=34.4%(95%CI: 23.9–46.6%) ● 相对风险 RR=1.17(95%CI: 0.76–1.80)
Fisher 精确检验 p=0.496;比值比 OR=1.29(95%CI: 0.65–2.54)。
逐一与没保活-空载对比:

置信区间都跨 1,说明差异不显著。贝叶斯视角(Beta(1,1) 先验),“dd 的封号率大于基线”的后验概率约 0.73;“脚本大于基线”约 0.67;都远达不到可信证据的常用门槛(≥0.95)。


结论

基于问卷数据,保活方式是否被封号之间不存在统计学显著关联。不论是 dd 系统保活脚本,还是没保活(空载/高载),各组被封比例差异都落在抽样误差范围内。整体卡方检验 p=0.91;把保活没保活二分类后做 Fisher 精确检验 p=0.50。样本量远不足以检出目前观察到的 5–7% 的差异。
人话:是否保活和龟壳是否封你号大概率无关,但要实锤还需要更多样本数据。


感谢佬友的投票!有不足或者错误欢迎指正

24 posts - 24 participants

Read full topic

via LINUX DO - 热门话题 (author: RyanVan)

Invalid media: image
Linux.do 建一个社区密码管理服务(类似 Bitwarden)

我发现很多佬讨论自建密码管理服务。还是有点技术门槛。

我的想法是:
Linux.do 社区搭建一个简单、可自托管的密码管理服务,类似 Bitwarden,但只面向社区用户。

用途包括:

存放个人密码、API Key、安全笔记
小组项目共享密码(可设置权限)
对于敏感内容可限制「达到一定论坛等级才可访问」

初版功能计划很简单:

Web 端可用
支持客户端加密
支持团队/小组共享
与论坛账号绑定登录(可选)

希望大家提供空闲机器。成立管理委员会,任命管理员,等等。

67 posts - 42 participants

Read full topic

via LINUX DO - 热门话题 (author: Jack C.)
电视剧电影种子网站分享

https://www.seedhub.cc/

资源更新很快,4k,杜比畅想
18 posts - 18 participants

Read full topic

via LINUX DO - 热门话题 (author: susu1)

Invalid media: image
沾沾双11的气氛,送全新IP的美国AT&T家宽节点(8人)

已发完!!!

运营商:AT&T
地区:加州洛杉矶
速率:50Mbps
时长:一个月
中转:搬瓦工洛杉矶CN2GIA

新IP,总流量限制了200G,因为我的搬瓦工流量不多了。仅限AI用途,禁止滥用。
先到先得,前8楼我会私信给你。

另,需要AT&T大带宽无限流量的也可以找我拼车,专业家宽拼车,已开车一年多,近10辆车的质量与品质保障。

38 posts - 38 participants

Read full topic

via LINUX DO - 热门话题 (author: Hoofei)
【终极缝合】喂饭式macOS配置Codex MCP指南

macOS配置Codex CLI + 好用的MCP

一、安装各种工具

安装codex
npm i -g @openai/codex

下载安装CC Switch

二、配置KEY

不再赘述,参考各家中转站文档

三、安装MCP

首先,记得安装npxuv并正确配置源,此处不再赘述。

打开CC Switch,选择Codex,选择MCP——添加MCP,先使用预设添加上sequential-thinkingcontext7,再在自定义里手动添加如下MCP(格式:标题-TOML,自己保存):
ddg-search

type = "stdio"
command = "uvx"
args = [ "duckduckgo-mcp-server" ]

=======分割线=======

@playwright/mcp

type = "stdio"
command = "npx"
args = [ "@playwright/mcp@latest" ]

=======分割线=======

mcp-deepwiki

type = "stdio"
command = "npx"
args = [ "-y", "mcp-deepwiki@latest" ]


然后检查你的codex配置~/.codex/config.toml,应该是类似如下设置:
disable_response_storage = true
model = "gpt-5"
model_provider = "packycode"
model_reasoning_effort = "high"

# 注意,这里默认是没有api-key的。如果你需要更多的搜索额度,去context7的网站注册申请一个key即可。
[mcp_servers.context7]
args = ["-y", "@upstash/context7-mcp", "--api-key", "你的key"]
command = "npx"
type = "stdio"

[mcp_servers.ddg-search]
args = ["duckduckgo-mcp-server"]
command = "uvx"
type = "stdio"

[mcp_servers.mcp-deepwiki]
args = ["-y", "mcp-deepwiki@latest"]
command = "npx"
type = "stdio"

[mcp_servers.playwright]
args = ["@playwright/mcp@latest"]
command = "npx"
type = "stdio"

[mcp_servers.sequential-thinking]
args = ["-y", "@modelcontextprotocol/server-sequential-thinking"]
command = "npx"
type = "stdio"

[model_providers.packycode]
base_url = "https://codex-api-slb.packycode.com/v1"
env_key = "PACKYCODE_API_KEY"
name = "packycode"
requires_openai_auth = true
wire_api = "responses"


四、安装Serena并配置
git clone https://github.com/oraios/serena.git
cd serena
uv run serena start-mcp-server --context codex --transport streamable-http --port 9121

然后修改codex配置~/.codex/config.toml,在顶层添加rmcp_client = true,然后在MCP区域添加:
[mcp_servers.serena]
url = "http://127.0.0.1:9121/mcp"


五、编写Serena脚本

在你喜欢的目录写一个脚本,比如vi ~/serena.sh
#!/bin/bash
APP_DIR="$HOME/serena"
PID_FILE="$APP_DIR/serena.pid"
COMMAND="uv run serena start-mcp-server --context codex --transport streamable-http --port 9121"

if [ ! -d "$APP_DIR" ]; then
echo "错误: 应用程序目录 '$APP_DIR' 不存在。"
echo "请先创建该目录并放置好您的 serena 项目。"
exit 1
fi

start() {
if [ -f "$PID_FILE" ]; then
PID=$(cat "$PID_FILE")
if kill -0 "$PID" > /dev/null 2>&1; then
echo "Serena 已经在运行中,PID: $PID"
exit 0
else
echo "发现一个无效的 PID 文件,将自动删除它。"
rm "$PID_FILE"
fi
fi

echo "正在启动 Serena..."
cd "$APP_DIR" && $COMMAND > /dev/null 2>&1 &
PID=$!
echo $PID > "$PID_FILE"
sleep 1
if kill -0 $PID > /dev/null 2>&1; then
echo "Serena 启动成功,PID: $PID"
else
echo "Serena 启动失败,请检查配置或手动执行命令排查问题。"
rm "$PID_FILE"
exit 1
fi
}

stop() {
if [ ! -f "$PID_FILE" ]; then
echo "Serena 未在运行 (未找到 PID 文件)。"
exit 0
fi

PID=$(cat "$PID_FILE")

if ! kill -0 "$PID" > /dev/null 2>&1; then
echo "Serena 未在运行 (但找到了一个无效的 PID 文件)。"
rm "$PID_FILE"
exit 0
fi

echo "正在停止 Serena (PID: $PID)..."
kill "$PID"
rm "$PID_FILE"

echo "Serena 已停止。"
}

case "$1" in
start)
start
;;
stop)
stop
;;
*)
echo "用法: $0 {start|stop}"
exit 1
;;
esac

exit 0

每次开机的时候执行一次~/serena.sh start即可。

没有加入开机自启服务,有需要的可以自行添加。因为如果以后不用了还要涉及删除清理,比较麻烦。mac用户不爱关机的不是吗?

参考资料:

Codex CLI 使用 Streamable-HTTP 连接 Serena MCP 资源荟萃
Codex CLI 自 0.44.0 版本起,正式支持 Streamable HTTP MCP servers [图片] 之前,在 Codex CLI 上使用 Serena MCP 时,我通过以下命令让其在启动时加载: [mcp_servers.serena] command = "uvx" args = ["--from", "git+https://github.com/orai…

Codex 配置大杂烩,涵盖MCP安装、调用规则、自动模式解决方案等【缝合系列】 开发调优
1、首先直接就是MCP配置,直接使用Mcprouter,一键缝合所有想要的MCP服务(所有cli,编辑的mcp调用都会转发到此,后续只需要在这里配置); 访问 mcp-router/mcp-router: A Unified MCP Server Management App地址,Releases内下载exe版本; 2. 运行mcprouter程序,选择要导入的mcp,也可以选择系统已有的; […

14 posts - 10 participants

Read full topic

via LINUX DO - 热门话题 (author: flymyd)
佬们,生日当天有啥羊毛嘛

各位单身的佬们光棍节快乐~ 不单身的佬们预祝你们单身节快乐!!!

51 posts - 45 participants

Read full topic

via LINUX DO - 热门话题 (author: superjason)

Invalid media: image
第一个被kimi反薅的人来了

(:з」∠)
第一个被ai反薅的人来了
kimi的活动,说着0.99给了我49的链接😭

24 posts - 20 participants

Read full topic

via LINUX DO - 热门话题 (author: Shyliuli)
小女子笨之笨之

进入l站以来,一直埋头苦吃各位佬友的分享,勤勤恳恳学之赞之,然发现仍未升2级,坏哉坏哉,且遍寻未曾找到何处查看,小女子笨之笨之,遂发帖询问,求佬友们教之😭

36 posts - 31 participants

Read full topic

via LINUX DO - 热门话题 (author: W)
分享一个领取的Codex福利,双十一买多了账号,将多的账号3天使用权拿出来抽奖

希望给刚进论坛或者还没用上或者暂时无连通较好的Codex的佬友。
截止至 今天晚上20点,刚从三级掉下来二级,需要集赞,欢迎点赞,谢谢

抽中后,我会私信 API url和key,要求用得好的话知会一声,我继续充值。

记得点赞喔,希望再上三级

43 posts - 43 participants

Read full topic

via LINUX DO - 热门话题 (author: Tom Xiong)
开源Mini Agent,一个简单易上手又好用的Agent CLI Demo,希望对大家有帮助

佬们好,很多开发者反馈不知道怎么使用M2、Sonnet这样最新的、基于Interleaved thinking的agentic model,能够最好的发挥出其性能。
以及有不少用户喜欢我们的MiniMax Agent,希望知道它是怎么实现的。

所以我们开发并开源一个Demo项目Mini Agent,来帮助开发者,快速了解,如何开发一个现代的Agent,发挥出最先进模型的能力。

为什么叫Mini-Agent:
它很简单:14个python文件,3300+行代码。不少代码是M2自己写的,当然都是我自己认真Review过的。

它也很完整、可靠,支持:

Interleaved thinking,完整的thinking回传
CLI交互,使用Pipx命令安装后,可以像Claude Code一样使用。
文件,Bash等核心工具
MCP
Claude Skills(以Git submodules方式集成)
自动compact: 可配置Context Limit

易于扩展

可以轻松扩展更多Tool
基于Anthropic API,可以用M2,也可以配置任何支持该API的模型,如Claude Sonnet, GLM, K2等。

开箱即用,配置MiniMax Platform的base url和api key即可。

项目地址:GitHub - MiniMax-AI/Mini-Agent: A minimal yet professional single agent demo project that showcases the core execution pipeline and production-grade features of agents.

我们特意把它设计的很简单,便于理解,对于想学习Agent开发的用户,它是很好的Demo Project。
对于想开发自己agent应用的用户,也可以没有包袱基于它开发,扩展自己的功能。
欢迎大家Fork,使用。

希望可以帮助大家开发出自己的Agent, CLI, 或者各种更多有意思的东西。

14 posts - 14 participants

Read full topic

via LINUX DO - 热门话题 (author: adao)
谁懂这种断崖式暧昧

周日跟暧昧对象约会了一天,也牵手了,拥抱了,整体氛围暧昧。昨天突然跟我说,跟我聊不到一起,觉得不合适。谁懂这种断崖式暧昧!太难受了 😭

还以为道长的祈福这么快就有效果了,没想到是这种结局

61 posts - 49 participants

Read full topic

via LINUX DO - 热门话题 (author: NovCap)
咦,怎么多了点东西?

怎么回事,怎么站点多了个分组,好像还多了什么什么

谁提供的呢?

ps:嘻嘻,自己尝试去吧

46 posts - 37 participants

Read full topic

via LINUX DO - 热门话题 (author: bohe)
河马大学大概也许以及肯定是Linuxdo最大的大学了

直接开放注册一天

河马大学,立志成为人人都上得起的大学

赞美河马校长 😍

2 posts - 2 participants

Read full topic

via LINUX DO - 最新话题 (author: HTFS)