linux.do
20.7K subscribers
105K photos
193 videos
109 files
232K links
linux.do最新话题和热议话题
Download Telegram
xychatai : 迟到的双十一抽奖,抽100个codex月卡

眨眼之间就到双十一了,最近真是多灾多难。

但所幸,站点也在顽强的成长之中。我们的缺陷有,但在变少,也算是可喜可贺。
那我们在l站并不出名,也没有什么拿的出手的产品。也就不继续的王婆卖瓜。

抽奖活动如下
100个codex的15刀每日的月卡兑换码。

开奖时间11.12日中午十二点。

双十一活动如下:
活动购买网址在:
newshop.xychatai.com

购物 - xyai的小铺

使用网址在:
https://new.xychatai.com
活动期是11.2 到 11.13
卡密都是限量,不定期补货

9.9 系列

gpt 纯粹月卡 镜像站可用
codex 15刀返场
team 自助的质保月卡

19.9 系列

gpt+grok镜像 月卡
codex 90刀 月卡
claude镜像

29.9 系列

三合一套餐镜像 月卡

99 系列

claude code 套餐月卡

另外有一些常见的问题:

team的质保卡密怎么质保

封号按天退款,但一般都会直接退全款,另外,质保卡密支持在网站中自己解绑,重新绑定母号来节约时间。

镜像的限速是怎么样的,尤其是claude

单独说一下claude,claude的限速是同步官网pro的额度进行限速。根据闲时忙时计费,闲时是0.5倍的官网pro限速,忙时是1倍的官网pro限速。
闲时和忙时是按照使用阈值计算,如果站点的总体到限率是60%,即周限加五小时限制的比例高于60%,则会自动进入忙时计费。
所以理解为同步官网pro计费即可。为什么会偶尔感觉用的比官网要快,因为,你在使用的账号的同时可能会有其他用户也在使用该账号,会进行加权平均计算。
总而言之算法,比较复杂,但相对来讲公平。但不存在绝对的公平,介意的会慎买。
xychatai.com

Claude镜像版 - 免翻墙直接使用的ChatGPT、Grok镜像服务平台 | XYAI

Claude镜像|Claude国内站 - Claude镜像版是镜像最稳定的Claude免代理访问平台,无需翻墙即可使用Claude中文版、ChatGPT、Grok等AI编程助手。全力对抗降智问题,多账号后台稳定运行,优惠价格支持Claude镜像购买。

grok的镜像有super这些高级账号吗



站点的联系方式:

75 posts - 75 participants

Read full topic

via LINUX DO - 最新话题 (author: xychatai)

Invalid media:
image
image
image
image
Lobechat把对象存储转到腾讯云感觉速度变快了

纯小白一个,自己一边截图一边问AI折腾着玩,然后发现把对象存储从minio转到腾讯云之后,页面切换的速度一下子就变快了,用起来流畅了许多。

2 posts - 2 participants

Read full topic

via LINUX DO - 最新话题 (author: Yihang Lou)
最近gemini的回答风格变了好多,尤其是特别“嘴硬”,有没有专业的佬分析一下

事情起源于我向gemini提问我的世界相关问题,前情就不说了,总之最后问到流浪商人用水桶换绿宝石划不划算以及怎么骑乘恶魂的这两个问题。
首先是gemini认为这两个功能不存在,ok,那可能是没查询到或者信息来源过时,没关系我给他指出来源就好了嘛,没想到gemini继续嘴硬,并且编造一些不存在的东西来作证自己的观点,这下子给我整不会了,别家AI的都是直接给出正解的,更不用说这么嘴硬了,感觉像是跟某些平台的臭屁客服对话一样。
所以想请专业的老哥分析以下是什么导致gemini的应对策略和别的AI不一样呢

5 posts - 3 participants

Read full topic

via LINUX DO - 最新话题 (author: aisee)

Invalid media:
image
image
1
之前Comet邀请赠的刀乐有消息了

真的过了一个月哎 :distorted_face:
5 posts - 3 participants

Read full topic

via LINUX DO - 最新话题 (author: Codex)

Invalid media:
image
image
L站我来了,发个话题试试

各位大佬好,我来打个望

11 posts - 11 participants

Read full topic

via LINUX DO - 最新话题 (author: Jack Ma)
请问佬们,现在有没有能跑的realtime/streaming visual LLM on device项目?

我想要能直接安卓、iOS部署的,但直接Google搜的话,只能搜到一些PC端的demo

不知道Qwen2-OMNI-flash转个ONNX,能不能做到近实时?

2 posts - 2 participants

Read full topic

via LINUX DO - 最新话题 (author: MorryWang)
英特尔AI主管跳槽OpenAI,负责计算基础设施建设

近日,英特尔的首席技术与人工智能官萨钦・卡蒂(Sachin Katti)正式宣布离职,转投 OpenAI,担任公司的基础设施建设负责人。这一消息于当地时间 11 月 10 日公布,迅速引发业内广泛关注。卡蒂的离开标志着英特尔在人工智能领域的一次重要人事变动。

英特尔在一份声明中表示,将由现任首席执行官陈立武接替卡蒂的职位。尽管面临人事变动,英特尔重申了人工智能在公司战略中的重要性,强调将继续推进新兴 AI 工作负载的技术与产品路线图。英特尔的这一立场反映出他们对 AI 市场的重视,以及希望在这一领域保持竞争力的决心。

与此同时,OpenAI 的联合创始人兼总裁格雷格・布罗克曼在社交媒体上热情欢迎卡蒂的加入,并表示他将负责 “设计和构建公司的计算基础设施”。这项工作对于 OpenAI 来说至关重要,随着人工智能技术的不断发展,强大的计算基础设施将为公司的未来发展提供坚实支撑。

Source: 英特尔AI主管跳槽OpenAI,负责计算基础设施建设

1 post - 1 participant

Read full topic

via LINUX DO - 最新话题 (author: Bunn)
TG必备的搜索引擎,极搜帮你精准找到,想要的群组、频道、音乐 、视频

👇👇👇点击下方按钮,进行搜索
维基百科呼吁 AI 公司停止 “白嫖” 内容,推广付费 API 服务

维基媒体基金会(Wikimedia Foundation)发布了一项公开声明,强烈要求人工智能(AI)公司停止使用自动化程序抓取维基百科内容,并建议他们使用付费 API 产品 ——“维基媒体企业平台”(Wikimedia Enterprise)。此举是为了保护维基百科的资源和可持续发展。

维基媒体基金会指出,近年来 AI 公司通过网络抓取大量维基百科内容,严重消耗了其服务器资源,并影响了网站的正常运营。基金会希望,AI 开发者能够负责任地使用维基百科的知识库,维护信息的准确性和来源的清晰性。

根据基金会的要求,AI 公司应当停止直接抓取维基百科的数据,而是转向使用 “维基媒体企业平台”,这一平台专为大规模数据使用设计,旨在提供一个更加可持续的合作模式。通过这一付费产品,AI 公司可以更高效地获取数据,减少对维基百科服务器的压力,并通过支付费用支持维基百科的非营利使命。

维基百科目前正面临着用户流失的挑战,近期数据显示其人类用户访问量同比下降了8%。这一下降趋势可能会威胁到维基百科的核心运营模式,因为他们依赖公众的访问来吸引志愿者和捐赠者。为了应对这一情况,维基百科希望 AI 公司能够重视内容的来源归属,尊重数百万志愿者的贡献,以增强公众对信息的信任。

维基媒体基金会的呼吁是希望 AI 公司能够与他们建立一种互惠互利的合作关系,通过付费方式支持维基百科的可持续发展

Source: ​维基百科呼吁 AI 公司停止 “白嫖” 内容,推广付费 API 服务

4 posts - 4 participants

Read full topic

via LINUX DO - 最新话题 (author: Bunn)

Invalid media: image
有必要上32G运存吗

题主把摸鱼的iPad出掉了(用web VSCode写代码写红温了),换了一台ROG 幻X 2023,原机带16G板载内存,淘宝上有扩容32G服务,想问问各位佬,玩游戏(玩HUNT、MC还有RON),做开发(C# .Net比较多一些,IDE是Jetbrain家的),16GB内存够用吗

2025年11月11日 17:56:15补充:看了佬友的建议,打算去扩到32GB内存

顺带问一下,板载16G运存扩容32GB 报价¥1200,值吗?

40 posts - 29 participants

Read full topic

via LINUX DO - 最新话题 (author: 核心不是线程)
在天猫超市买的拯救者似乎是摸摸机怎么办是去还是留

本人在11月6日晚上11点在天猫超市买了一台拯救者r9000p

(因为没抢到国补,有政府补贴2000元)在11月9日到货后跟着网上教程验机结果如下

看到已激活心态崩了当时就找客服理论后面打了两个电话给我没接到发我了一个短信说是正常现象

想问问佬们能留吗:tieba_009:
2 posts - 2 participants

Read full topic

via LINUX DO - 最新话题 (author: weixu)

Invalid media:
image
image
image
image
image
写了个工作流系统

前后端已经完成,前端通过拖拽设计流程,后端执行引擎根据节点配置进行执行。

历时 2年,中间 写了删-删了重写-搞了6、7个中间版本。前端vue3-ts-element-plus 那一套,后端Java17

设计,开发,改bug 前后端1个人搞定

53 posts - 18 participants

Read full topic

via LINUX DO - 热门话题 (author: web3_song)

Invalid media:
image
image
[统计分析] 甲骨文封号与是否保活无关

背景

一般认为甲骨文在注册成功后,需要保活,也就是不被回收闲置计算实例规则噶掉。

保活主要有两种:

1. 通过重装自定义系统(dd)绕开甲骨文在你机器上预装的监控服务。
2. 保活脚本:如 NeverIdleOracle-server-keep-alive-script

于是之前发起了一个投票甲骨文保活方法与封号的关联性来统计 dd保活脚本以及不保活的情况下,甲骨文的封号情况。总共三个问题,如下:

(1/3) 佬友的甲骨文云账号被封过吗?




(2/3) 如果佬友被封过,你采取的保活措施是?

dd 了系统
保活脚本
没保活,空载
没保活,负载高

(3/3) 如果佬友没被封过,你采取的保活措施是?

dd 了系统
保活脚本
没保活,空载
没保活,负载高

本文根据投票结果进行了统计分析。

统计数据

根据问卷所提供的两个条件分布,可以形成一个交叉表(由于有人未按标准作答或样本群体不同;下文会给出加权敏感性分析)。

● 被封过(来自 Q2,共 55) dd 了系统:20 没保活,空载:17 保活脚本:13 没保活,负载高:5
● 没被封过(来自 Q3,共 91) 没保活,空载:32 dd 了系统:29 保活脚本:20 没保活,负载高:10

合并成列联表(行=封号状态;列=保活方式):
置信区间为 Wilson 95% 区间。可以看到区间很宽,彼此大量重叠。


结果分析

● 2×4 卡方独立性检验:χ²=0.55,自由度=3,p=0.907● Cramér’s V=0.062(效应量极弱)。
把方法合并成保活(dd 或脚本)vs不保活(空载或高载)保活:33/82=40.2%(95%CI: 30.3–51.1%) 不保活:22/64=34.4%(95%CI: 23.9–46.6%) ● 相对风险 RR=1.17(95%CI: 0.76–1.80)
Fisher 精确检验 p=0.496;比值比 OR=1.29(95%CI: 0.65–2.54)。
逐一与没保活-空载对比:

置信区间都跨 1,说明差异不显著。贝叶斯视角(Beta(1,1) 先验),“dd 的封号率大于基线”的后验概率约 0.73;“脚本大于基线”约 0.67;都远达不到可信证据的常用门槛(≥0.95)。


结论

基于问卷数据,保活方式是否被封号之间不存在统计学显著关联。不论是 dd 系统保活脚本,还是没保活(空载/高载),各组被封比例差异都落在抽样误差范围内。整体卡方检验 p=0.91;把保活没保活二分类后做 Fisher 精确检验 p=0.50。样本量远不足以检出目前观察到的 5–7% 的差异。
人话:是否保活和龟壳是否封你号大概率无关,但要实锤还需要更多样本数据。


感谢佬友的投票!有不足或者错误欢迎指正

24 posts - 24 participants

Read full topic

via LINUX DO - 热门话题 (author: RyanVan)

Invalid media: image
Linux.do 建一个社区密码管理服务(类似 Bitwarden)

我发现很多佬讨论自建密码管理服务。还是有点技术门槛。

我的想法是:
Linux.do 社区搭建一个简单、可自托管的密码管理服务,类似 Bitwarden,但只面向社区用户。

用途包括:

存放个人密码、API Key、安全笔记
小组项目共享密码(可设置权限)
对于敏感内容可限制「达到一定论坛等级才可访问」

初版功能计划很简单:

Web 端可用
支持客户端加密
支持团队/小组共享
与论坛账号绑定登录(可选)

希望大家提供空闲机器。成立管理委员会,任命管理员,等等。

67 posts - 42 participants

Read full topic

via LINUX DO - 热门话题 (author: Jack C.)
电视剧电影种子网站分享

https://www.seedhub.cc/

资源更新很快,4k,杜比畅想
18 posts - 18 participants

Read full topic

via LINUX DO - 热门话题 (author: susu1)

Invalid media: image
沾沾双11的气氛,送全新IP的美国AT&T家宽节点(8人)

已发完!!!

运营商:AT&T
地区:加州洛杉矶
速率:50Mbps
时长:一个月
中转:搬瓦工洛杉矶CN2GIA

新IP,总流量限制了200G,因为我的搬瓦工流量不多了。仅限AI用途,禁止滥用。
先到先得,前8楼我会私信给你。

另,需要AT&T大带宽无限流量的也可以找我拼车,专业家宽拼车,已开车一年多,近10辆车的质量与品质保障。

38 posts - 38 participants

Read full topic

via LINUX DO - 热门话题 (author: Hoofei)
【终极缝合】喂饭式macOS配置Codex MCP指南

macOS配置Codex CLI + 好用的MCP

一、安装各种工具

安装codex
npm i -g @openai/codex

下载安装CC Switch

二、配置KEY

不再赘述,参考各家中转站文档

三、安装MCP

首先,记得安装npxuv并正确配置源,此处不再赘述。

打开CC Switch,选择Codex,选择MCP——添加MCP,先使用预设添加上sequential-thinkingcontext7,再在自定义里手动添加如下MCP(格式:标题-TOML,自己保存):
ddg-search

type = "stdio"
command = "uvx"
args = [ "duckduckgo-mcp-server" ]

=======分割线=======

@playwright/mcp

type = "stdio"
command = "npx"
args = [ "@playwright/mcp@latest" ]

=======分割线=======

mcp-deepwiki

type = "stdio"
command = "npx"
args = [ "-y", "mcp-deepwiki@latest" ]


然后检查你的codex配置~/.codex/config.toml,应该是类似如下设置:
disable_response_storage = true
model = "gpt-5"
model_provider = "packycode"
model_reasoning_effort = "high"

# 注意,这里默认是没有api-key的。如果你需要更多的搜索额度,去context7的网站注册申请一个key即可。
[mcp_servers.context7]
args = ["-y", "@upstash/context7-mcp", "--api-key", "你的key"]
command = "npx"
type = "stdio"

[mcp_servers.ddg-search]
args = ["duckduckgo-mcp-server"]
command = "uvx"
type = "stdio"

[mcp_servers.mcp-deepwiki]
args = ["-y", "mcp-deepwiki@latest"]
command = "npx"
type = "stdio"

[mcp_servers.playwright]
args = ["@playwright/mcp@latest"]
command = "npx"
type = "stdio"

[mcp_servers.sequential-thinking]
args = ["-y", "@modelcontextprotocol/server-sequential-thinking"]
command = "npx"
type = "stdio"

[model_providers.packycode]
base_url = "https://codex-api-slb.packycode.com/v1"
env_key = "PACKYCODE_API_KEY"
name = "packycode"
requires_openai_auth = true
wire_api = "responses"


四、安装Serena并配置
git clone https://github.com/oraios/serena.git
cd serena
uv run serena start-mcp-server --context codex --transport streamable-http --port 9121

然后修改codex配置~/.codex/config.toml,在顶层添加rmcp_client = true,然后在MCP区域添加:
[mcp_servers.serena]
url = "http://127.0.0.1:9121/mcp"


五、编写Serena脚本

在你喜欢的目录写一个脚本,比如vi ~/serena.sh
#!/bin/bash
APP_DIR="$HOME/serena"
PID_FILE="$APP_DIR/serena.pid"
COMMAND="uv run serena start-mcp-server --context codex --transport streamable-http --port 9121"

if [ ! -d "$APP_DIR" ]; then
echo "错误: 应用程序目录 '$APP_DIR' 不存在。"
echo "请先创建该目录并放置好您的 serena 项目。"
exit 1
fi

start() {
if [ -f "$PID_FILE" ]; then
PID=$(cat "$PID_FILE")
if kill -0 "$PID" > /dev/null 2>&1; then
echo "Serena 已经在运行中,PID: $PID"
exit 0
else
echo "发现一个无效的 PID 文件,将自动删除它。"
rm "$PID_FILE"
fi
fi

echo "正在启动 Serena..."
cd "$APP_DIR" && $COMMAND > /dev/null 2>&1 &
PID=$!
echo $PID > "$PID_FILE"
sleep 1
if kill -0 $PID > /dev/null 2>&1; then
echo "Serena 启动成功,PID: $PID"
else
echo "Serena 启动失败,请检查配置或手动执行命令排查问题。"
rm "$PID_FILE"
exit 1
fi
}

stop() {
if [ ! -f "$PID_FILE" ]; then
echo "Serena 未在运行 (未找到 PID 文件)。"
exit 0
fi

PID=$(cat "$PID_FILE")

if ! kill -0 "$PID" > /dev/null 2>&1; then
echo "Serena 未在运行 (但找到了一个无效的 PID 文件)。"
rm "$PID_FILE"
exit 0
fi

echo "正在停止 Serena (PID: $PID)..."
kill "$PID"
rm "$PID_FILE"

echo "Serena 已停止。"
}

case "$1" in
start)
start
;;
stop)
stop
;;
*)
echo "用法: $0 {start|stop}"
exit 1
;;
esac

exit 0

每次开机的时候执行一次~/serena.sh start即可。

没有加入开机自启服务,有需要的可以自行添加。因为如果以后不用了还要涉及删除清理,比较麻烦。mac用户不爱关机的不是吗?

参考资料:

Codex CLI 使用 Streamable-HTTP 连接 Serena MCP 资源荟萃
Codex CLI 自 0.44.0 版本起,正式支持 Streamable HTTP MCP servers [图片] 之前,在 Codex CLI 上使用 Serena MCP 时,我通过以下命令让其在启动时加载: [mcp_servers.serena] command = "uvx" args = ["--from", "git+https://github.com/orai…

Codex 配置大杂烩,涵盖MCP安装、调用规则、自动模式解决方案等【缝合系列】 开发调优
1、首先直接就是MCP配置,直接使用Mcprouter,一键缝合所有想要的MCP服务(所有cli,编辑的mcp调用都会转发到此,后续只需要在这里配置); 访问 mcp-router/mcp-router: A Unified MCP Server Management App地址,Releases内下载exe版本; 2. 运行mcprouter程序,选择要导入的mcp,也可以选择系统已有的; […

14 posts - 10 participants

Read full topic

via LINUX DO - 热门话题 (author: flymyd)
佬们,生日当天有啥羊毛嘛

各位单身的佬们光棍节快乐~ 不单身的佬们预祝你们单身节快乐!!!

51 posts - 45 participants

Read full topic

via LINUX DO - 热门话题 (author: superjason)

Invalid media: image
第一个被kimi反薅的人来了

(:з」∠)
第一个被ai反薅的人来了
kimi的活动,说着0.99给了我49的链接😭

24 posts - 20 participants

Read full topic

via LINUX DO - 热门话题 (author: Shyliuli)
小女子笨之笨之

进入l站以来,一直埋头苦吃各位佬友的分享,勤勤恳恳学之赞之,然发现仍未升2级,坏哉坏哉,且遍寻未曾找到何处查看,小女子笨之笨之,遂发帖询问,求佬友们教之😭

36 posts - 31 participants

Read full topic

via LINUX DO - 热门话题 (author: W)