标题: 【小辣椒公益站】
作者: #小辣椒
板块: #福利羊毛
编号:
帖子: https://linux.do/t/topic/1842276
时间: 2026-03-28 20:15:50
摘要:
作者: #小辣椒
板块: #福利羊毛
编号:
1842276帖子: https://linux.do/t/topic/1842276
时间: 2026-03-28 20:15:50
摘要:
cdk.linux.do
LINUX DO CDK
Linux Do 社区 CDK 快速分享平台 - 让分享变得更简单
yyds.215.im
小辣椒の公益站
小辣椒の公益站。
[! ]随机额度兑换码
好多说是没额度了,放一波。
最近比较艰苦,我也没有好的用,很惨!
大家忍忍!
另外,注册机下线了。里面的数据全部清除啦~
标题: claude支付问题
作者: #YCW
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1842280
时间: 2026-03-28 20:16:56
摘要:
作者: #YCW
板块: #搞七捻三
编号:
1842280帖子: https://linux.do/t/topic/1842280
时间: 2026-03-28 20:16:56
摘要:
上个月用Google Play开的pro,中间搞到一张visa虚拟卡,想着充extra usage试一试,充了$5,没想到成了
下个月我想跳过google play直充,佬们觉得有没有希望
标题: aicg内容可以在客户端渲染为图片,传输时不传输图像而是文本
作者: #Xushengfeng
板块: #运营反馈
编号:
帖子: https://linux.do/t/topic/1842282
时间: 2026-03-28 20:17:11
摘要:
作者: #Xushengfeng
板块: #运营反馈
编号:
1842282帖子: https://linux.do/t/topic/1842282
时间: 2026-03-28 20:17:11
摘要:
我理解的aicg截图是为了防止爬取导致中文预料下降
但是截图有以下缺点:流量消耗大,无论对服务器、用户节点都造成负担;速度慢,观感不好;排版自适应不行;截图转换麻烦
下面提出我的一种方案:
用新的md标签比如<aicg></aicg>包裹ai内容,服务器解析,拆分出来,赋予一个资源id,客户端通过资源id拿到文本,并通过canvas在客户端渲染
上面的新html标签方便灵活处理aicg内容,包括像ai翻译也可以打上。然后canvas和图片一样有一定的反爬。至于资源id,如果不担心直接从api爬,可以完全不用,直接把原始ai文本保留在里面就可以了,简单包装一下base64或者其它也是可以的,后面解析和渲染就网页本地处理就可以了
如果就是想让aicg内容发布变得麻烦,以此支持手写原创内容,当我没说 doge
此文 made in human
标题: 感谢谷歌送来的2,346刀
作者: #Google
板块: #福利羊毛
编号:
帖子: https://linux.do/t/topic/1842311
时间: 2026-03-28 20:23:40
摘要:
作者: #Google
板块: #福利羊毛
编号:
1842311帖子: https://linux.do/t/topic/1842311
时间: 2026-03-28 20:23:40
摘要:
闲来无事早上起来绑卡本来计划300刀的
绑定的是自己的visa、扣费100港币
结果就这样了
有懂的佬解释一下吗 是扣钱了吗 有啥要注意的吗
标题: Amazon Project Kobe: 计划建造 大型超市 以抗衡沃尔玛
作者: #🐟
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/1842319
时间: 2026-03-28 20:24:51
摘要:
作者: #🐟
板块: #前沿快讯
编号:
1842319帖子: https://linux.do/t/topic/1842319
时间: 2026-03-28 20:24:51
摘要:
Business Insider
Inside Project Kobe: Amazon's plan to build Walmart-style supercenters...
Amazon's Project Kobe aims to disrupt Walmart with supercenters that blend retail and fulfillment automation, internal documents reveal.
[!quote]+
亚马逊正在通过一种新型超级中心进一步深入沃尔玛的领地。内部文件显示了该战略是如何形成的。
据《商业内幕》获得的内部文件显示,这家电子商务巨头正计划建造许多大型商店,将沃尔玛式的超级中心与机器人驱动的仓库结合起来,其中包括之前未报道的地点。
这项工作在内部被称为“神户计划”,是亚马逊迄今为止重塑实体零售业最雄心勃勃的尝试之一。这些商店将杂货和百货商品与嵌入在后面的自动化履行中心结合起来,旨在处理同一栋大楼内的店内购物、提货和送货。
标题: 神经网络与大语言模型初步 - 第一章 神经网络 4
作者: #Moonie
板块: #文档共建
编号:
帖子: https://linux.do/t/topic/1842342
时间: 2026-03-28 20:27:30
摘要:
作者: #Moonie
板块: #文档共建
编号:
1842342帖子: https://linux.do/t/topic/1842342
时间: 2026-03-28 20:27:30
摘要:
1.4 神经网络的训练
上一节讲了如何评价神经网络的效果,这一节我们讲神经网络效果的提升,即训练。
1.4.1 训练目标与损失函数
训练的目的是提高神经网络的效果,换言之,是提高神经网络在某个评估指标下的表现。
通常,我们使用的方式是梯度下降法,通过求出神经网络的参数在该评估指标下的梯度(即求导),得到参数空间下,能够提升指标的参数变动方向(即向量),然后让参数往这个方向让移动一小步,如此往复。(梯度下降法的更详细内容会在 1.4.2 讲)
容易想到,评估指标并非都是可以连续可导的,比如准确率 \mathrm{Accuracy} = \frac{\text{分类正确的样本数}}{\text{总样本数}} 就是一个典型的离散变量。
因此,我们引入损失函数(Loss Function) \mathcal{L} ,衡量模型预测值与真实值之间的差距,且对参数可微。可以认为,损失函数是一种连续可导的评估指标。
结合我们刚才简单介绍的梯度下降法,训练目标可以写成
\min_{\theta} \mathcal{L}(\theta)
即找到使损失函数尽可能小的参数 \theta
注:我们通常将复杂神经网络的参数记为 \theta,例如在MLP中,\theta = (w, b)
常见损失函数
回归任务(输出连续值)
和上一节的MAE、MSE评估指标相同(这里 N 为样本数)
MAE Loss(平均绝对误差)
\mathcal{L} = \frac{1}{N}\sum_{i=1}^{N}\left|\hat{y}^{(i)}-y^{(i)}\right|
MSE Loss(均方误差)
\mathcal{L} = \frac{1}{N}\sum_{i=1}^{N}\left(\hat{y}^{(i)}-y^{(i)}\right)^2
分类任务(输出离散值/类别)
分类任务常用交叉熵损失(Cross-Entropy Loss),而不是直接用准确率。
以二分类为例,真实标签 y^{(i)} \in \{0, 1\},模型输出预测为正类的概率 \hat{p}^{(i)} \in (0,1),则:
\mathcal{L} = -\frac{1}{N}\sum_{i=1}^{N}\left[y^{(i)}\log\hat{p}^{(i)} + (1-y^{(i)})\log(1-\hat{p}^{(i)})\right]
直观理解:
若真实标签为1(正类),且模型预测 \hat{p} 越接近1,则 -\log \hat{p} 越小,损失越低;
若真实标签为0(负类),且模型预测 \hat{p} 越接近0,则 -\log(1-\hat{p}) 越小,损失越低。
多分类任务的交叉熵类似,这里不展开。
注:
损失函数和评估指标并不总是一一对应的,选取哪个损失函数有时是经验和工程上的选择,核心标准是可微且能间接反映评估指标的优化方向
对于LLM,常用的损失函数是交叉熵损失,目标是最大化模型预测下一个token正确的概率;对应的评估指标则是pass@k、mean@k等
1.4.2 梯度下降法
我们定义了训练目标:\min_{\theta} \mathcal{L}(\theta),即找到使损失函数最小的参数。现在,我们来讲如何找到符合条件的参数 \theta ,即刚才简单介绍过的梯度下降法(Gradient Descent)。
直观理解
这里用一个非常经典、非常形象的例子。
想象一个人站在一片山地上,周围浓雾弥漫,看不清山的地形,而他的目标是走到山的谷底。唯一能做的,通过脚底感知脚下这片地的坡度,然后朝着最陡的下坡方向走一小步。重复这个过程,就可以一步步走到某个低洼处。
梯度下降法就是这个思路:
“山地"就是损失函数 \mathcal{L}(\theta) 在参数空间中的"地形”
"脚底下的坡度"就是梯度 \nabla_{\theta} \mathcal{L}
"朝最陡的下坡方向走一小步"就是参数更新
梯度
梯度 \nabla_{\theta} \mathcal{L} 是损失函数对所有参数的偏导数组成的向量:
\nabla_{\theta} \mathcal{L} = \left( \frac{\partial \mathcal{L}}{\partial \theta_1},\ \frac{\partial \mathcal{L}}{\partial \theta_2},\ \dots,\ \frac{\partial \mathcal{L}}{\partial \theta_d} \right)
其中, d 为参数的维度。(如果你不知道偏导,可以简单将其理解为多元函数对其某个自变量求得的导数)
梯度的方向指向损失函数增长最快的方向,因此,负梯度方向就是损失函数下降最快的方向。
参数更新公式
每一步,我们沿负梯度方向更新参数:
\theta \leftarrow \theta - \eta \cdot \nabla_{\theta} \mathcal{L}(\theta)
其中:
\eta > 0 为学习率(Learning Rate),用于控制更新的幅度;
\leftarrow 表示 参数更新,常见于一些优化理论
一个简单的例子
对于一个参数为 w 和 b 线性网络,它的MSE Loss为:
\mathcal{L}(w,b) = \frac{1}{N}\sum_{i=1}^{N}\left(wx^{(i)}+b - y^{(i)}\right)^2
则梯度为:
\frac{\partial \mathcal{L}}{\partial w} = \frac{2}{N}\sum_{i=1}^{N}\left(wx^{(i)}+b - y^{(i)}\right) x^{(i)}, \quad \frac{\partial \mathcal{L}}{\partial b} = \frac{2}{N}\sum_{i=1}^{N}\left(wx^{(i)}+b - y^{(i)}\right)
(这里 (i) 代表第i个样本)
每一步更新:
w \leftarrow w - \eta \cdot \frac{\partial \mathcal{L}}{\partial w}, \quad b \leftarrow b - \eta \cdot \frac{\partial \mathcal{L}}{\partial b}
反复迭代,w 和 b 就会逐渐逼近使损失最小的值。
标题: 有没有便宜的claude中专哇
作者: #宇智波佐助
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1842343
时间: 2026-03-28 20:27:35
摘要:
作者: #宇智波佐助
板块: #开发调优
编号:
1842343帖子: https://linux.do/t/topic/1842343
时间: 2026-03-28 20:27:35
摘要:
好多claude都贵的太大了,我不求白嫖,有啥稍稍偏移的吗
标题: 【个人网站】一个友链还没有,有人要交换友链吗?
作者: #LsAng
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1842344
时间: 2026-03-28 20:27:36
摘要:
作者: #LsAng
板块: #搞七捻三
编号:
1842344帖子: https://linux.do/t/topic/1842344
时间: 2026-03-28 20:27:36
摘要:
https://llds.cloud/
主要展示个人瞎做的项目,文章。
基于Nuxt + UnoCSS, 部署在 Cloudflare。
欢迎大家互换友链:申请友链
标题: 求助:用我在美区的VPS搭的梯子访问 gemini 显示地区不支持了
作者: #jinhy
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1842348
时间: 2026-03-28 20:28:42
摘要:
作者: #jinhy
板块: #搞七捻三
编号:
1842348帖子: https://linux.do/t/topic/1842348
时间: 2026-03-28 20:28:42
摘要:
前几天还好使,突然不行了,有没有佬友有解决方案?
标题: 大家平时会用微软的 copilot吗,效果怎么样?
作者: #Road
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1842349
时间: 2026-03-28 20:28:43
摘要:
作者: #Road
板块: #搞七捻三
编号:
1842349帖子: https://linux.do/t/topic/1842349
时间: 2026-03-28 20:28:43
摘要:
之前薅的5年,后面没用过,今天用了一下觉得还行啊,就是快,回答的特快,排版看着也舒服。
之前用的Gemini,开快速感觉都没copilot快和美观。
标题: 精子:微重力什么的,是真不熟啊
作者: #stevessr backup
板块: #资源荟萃
编号:
帖子: https://linux.do/t/topic/1842387
时间: 2026-03-28 20:36:39
摘要:
作者: #stevessr backup
板块: #资源荟萃
编号:
1842387帖子: https://linux.do/t/topic/1842387
时间: 2026-03-28 20:36:39
摘要:
https://www.nature.com/articles/s42003-026-09734-4
https://www.nature.com/articles/s42003-026-09734-4.pdf
PubMed
Simulated microgravity alters sperm navigation, fertilization and embryo...
As human space exploration extends toward long-duration missions and off-Earth settlements, understanding the impact of microgravity on reproduction is vital for sustaining life beyond Earth. This study investigates how simulated microgravity...
the Guardian – 26 Mar 26
Sperm get lost in space, Australian research into microgravity impacts suggests
Study into how fertilisation could work in space finds sperm may get disorientated when trying to find an egg
[!quote]+
一项新的研究发现,太空中的精子在努力寻找卵子的过程中可能会迷失方向并迷失方向
阿德莱德大学的研究人员表示,当在实验中暴露于微重力时,精子会像不受束缚的宇航员一样翻滚。
研究人员妮可·麦克弗森博士说:“这会导
标题: 有没有人OpenCode用GPT模型会遇到只输出一句话就不输出了
作者: #是小绵羊咩
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1842399
时间: 2026-03-28 20:39:58
摘要:
作者: #是小绵羊咩
板块: #开发调优
编号:
1842399帖子: https://linux.do/t/topic/1842399
时间: 2026-03-28 20:39:58
摘要:
rt,只有使用gpt模型会,输出一段就不输出了,如截图这样
标题: Chatgpt的开通时效问题
作者: #fqy
板块: #福利羊毛
编号:
帖子: https://linux.do/t/topic/1842401
时间: 2026-03-28 20:40:55
摘要:
作者: #fqy
板块: #福利羊毛
编号:
1842401帖子: https://linux.do/t/topic/1842401
时间: 2026-03-28 20:40:55
摘要:
0325使用1刀的虚拟卡开的team,目前还没掉。0326使用0刀的虚拟卡开的team在0328凌晨掉了。感觉1刀的能多持续一段时间,不知道啥时候掉,之前0刀的基本最多三天都掉了,佬们都是啥情况