标题: 端到端论文生成还是太麻烦了?没关系 氛围论文 来了
作者: #QJHWC
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1842234
时间: 2026-03-28 20:07:10
摘要:
作者: #QJHWC
板块: #开发调优
编号:
1842234帖子: https://linux.do/t/topic/1842234
时间: 2026-03-28 20:07:10
摘要:
本帖使用社区公益推广,符合推广要求。我申明并遵循社区要求的以下内容:
我的项目是免费使用的,无收费(变相收费、赞助)部分: 是
我的帖子已经打上 公益推广 标签: 是
我的项目属于个人项目,与公司或商业机构无关: 是
我的项目不存在QQ、TG等群组引流: 是
我的项目不存在非运营必要的网站引流: 是
我的项目不存在为他人推广、AFF: 是
我的项目无关联的商业项目: 是
我的站点存在登录,并已接入 LINUX DO Connect: 否
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
从写作、训练、回灌——端到端AI驱动的学术论文生成系统继续讨论论无脑论文生成
[!tip]
首先很多佬说上面我开发的程序接入 api 太麻烦。我说一下我自己的观点吧我的程序可控,并且调用 api 真的是多次修改和审查,并且有 api 查询真实文献,并且 skill 我认为一口气干完了你懂的适合氛围编程,谁知道真干假干?
所以我推出无脑 skill 写论文使用指南查看下文详细教学
主要写作思路:研究→写作→评审→修订→最终定稿
顺便提一下最近我打算全面升级这个架构,全面升级为结合龙虾做到自动上传下载文件在服务器,加入生产架构图的 mcp,同时文章的降重和 aigc 生产问题不断优化,同时对文献加入文献管理器,然后主要思路就是 agent 和 skillmcp。最近马上毕业课多,然后也跟着朋友做大模型,生活里面也很多事情更新可能变慢不好意思。
[!question]
那么有佬友问了:兄弟兄弟我的查重率过了但是 aigc 生成率居高不下咋办?别急来了
焚诀提示词skill来了:GitHub - QJHWC/PaperForge: End-to-end AI-powered academic paper writing system — from idea generation and literature search to e
标题: genspark.ai 现在的模型保真么?
作者: #𝓵𝓮𝔃𝓲𝓼𝓱𝓮𝓷
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1842239
时间: 2026-03-28 20:08:18
摘要:
作者: #𝓵𝓮𝔃𝓲𝓼𝓱𝓮𝓷
板块: #搞七捻三
编号:
1842239帖子: https://linux.do/t/topic/1842239
时间: 2026-03-28 20:08:18
摘要:
20美刀无限使用
或者说咋测试呢
标题: 反重力渠道的claude什么价格上车合适
作者: #liheng
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1842243
时间: 2026-03-28 20:09:03
摘要:
作者: #liheng
板块: #搞七捻三
编号:
1842243帖子: https://linux.do/t/topic/1842243
时间: 2026-03-28 20:09:03
摘要:
反重力渠道的价格多少合适
标题: 求教各位佬,关于AI遇到NFSW的问题
作者: #mengying
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1842249
时间: 2026-03-28 20:09:49
摘要:
作者: #mengying
板块: #开发调优
编号:
1842249帖子: https://linux.do/t/topic/1842249
时间: 2026-03-28 20:09:49
摘要:
我想让AI监控我的浏览器,记住我浏览的所有网页,但是如果,我是说如果,不小心浏览到了NSFW网页,但AI不允许NSFW,该怎么办呢,难道加个分类,NSFW网页单独找个允许NSFW的AI,有没有这样的AI,但这样2个AI的记忆就不互通了,难搞~~
标题: 关于pixel认证问题求教
作者: #xmk2025
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1842251
时间: 2026-03-28 20:10:14
摘要:
作者: #xmk2025
板块: #搞七捻三
编号:
1842251帖子: https://linux.do/t/topic/1842251
时间: 2026-03-28 20:10:14
摘要:
买的认证和账号绑定了,现在就差绑卡。这个操作可以过俩月再做吗,还是会有时限,希望有佬指教一下。
标题: 大四心理学(实习中),觉得好累啊,好想哭
作者: #24
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1842258
时间: 2026-03-28 20:11:45
摘要:
作者: #24
板块: #搞七捻三
编号:
1842258帖子: https://linux.do/t/topic/1842258
时间: 2026-03-28 20:11:45
摘要:
还是新人第一次发帖,想不到第一次发帖,居然是发在这个板块
我在一家公司搞类似于RAG的开发(从高中起就热爱code),工资150一天
最近接单其他学院的一个小程序毕设,放在楼下让AI帮我做,我去楼上上厕所,女朋友在楼下玩手机,然后猫把电脑屏幕咬坏了(我一月份才买的M4 Air),明明就在面前都不管猫,给我的理由是她不知道猫跳到桌上了,她觉得不会咬屏幕云云
我之前多次说和做把猫用绳子拴住,她多次阻止我说会束缚猫
我感觉好崩溃,好想哭,她本身就是在天天家也没有去实习,生活开销都是我一个人在出,怎么这点事情都做不好
发在L站上是因为肯定没有人认识我,而且我想发泄一下情绪
让各位佬看笑话了哈哈,别骂我
标题: 对 前沿资讯 模块的建议
作者: #最上川
板块: #运营反馈
编号:
帖子: https://linux.do/t/topic/1842259
时间: 2026-03-28 20:11:48
摘要:
作者: #最上川
板块: #运营反馈
编号:
1842259帖子: https://linux.do/t/topic/1842259
时间: 2026-03-28 20:11:48
摘要:
前沿快讯 板块一定要有前沿和资讯其中之一哇,水区请发送到水区
建议是 前沿快讯 发送的帖子需要带有信息源头 截图或者链接,而非水区的形式 搞七捻三
标题: 有佬友试过这个项目吗
作者: #shuaimaomao
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1842261
时间: 2026-03-28 20:11:48
摘要:
作者: #shuaimaomao
板块: #搞七捻三
编号:
1842261帖子: https://linux.do/t/topic/1842261
时间: 2026-03-28 20:11:48
摘要:
有佬友试过这个项目吗,怎么样
github.com
GitHub - afu6609/gemini-api2cli
通过在 GitHub 上创建帐户来为 afu6609/gemini-api2cli 开发做出贡献。
标题: 寻找codex 信息面板 or 编排工具
作者: #lucas
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1842267
时间: 2026-03-28 20:13:26
摘要:
作者: #lucas
板块: #搞七捻三
编号:
1842267帖子: https://linux.do/t/topic/1842267
时间: 2026-03-28 20:13:26
摘要:
平时只开一个codex进行对话总感觉等待时间太长 效率太低,有什么信息汇总或者管理面板吗?还有什么agent编排工具推荐吗
标题: 新人报道,逛L站快一年了,终于不是游客了
作者: #iasi777
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1842273
时间: 2026-03-28 20:15:16
摘要:
作者: #iasi777
板块: #搞七捻三
编号:
1842273帖子: https://linux.do/t/topic/1842273
时间: 2026-03-28 20:15:16
摘要:
作为游客瞎逛就能在L站学到很多东西了,最近antigravity的pro账号一直无法登陆,老帐号可以登陆。网上找遍了都无法解决,甚至被gemini骗到官方论坛发了给帖子,直到看到了这个帖子
https://linux.do/t/topic/1775407
顿时意识到佬友们的强大,赶紧找了个邀请码,终于真正成为L站的一员了
标题: 【小辣椒公益站】
作者: #小辣椒
板块: #福利羊毛
编号:
帖子: https://linux.do/t/topic/1842276
时间: 2026-03-28 20:15:50
摘要:
作者: #小辣椒
板块: #福利羊毛
编号:
1842276帖子: https://linux.do/t/topic/1842276
时间: 2026-03-28 20:15:50
摘要:
cdk.linux.do
LINUX DO CDK
Linux Do 社区 CDK 快速分享平台 - 让分享变得更简单
yyds.215.im
小辣椒の公益站
小辣椒の公益站。
[! ]随机额度兑换码
好多说是没额度了,放一波。
最近比较艰苦,我也没有好的用,很惨!
大家忍忍!
另外,注册机下线了。里面的数据全部清除啦~
标题: claude支付问题
作者: #YCW
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1842280
时间: 2026-03-28 20:16:56
摘要:
作者: #YCW
板块: #搞七捻三
编号:
1842280帖子: https://linux.do/t/topic/1842280
时间: 2026-03-28 20:16:56
摘要:
上个月用Google Play开的pro,中间搞到一张visa虚拟卡,想着充extra usage试一试,充了$5,没想到成了
下个月我想跳过google play直充,佬们觉得有没有希望
标题: aicg内容可以在客户端渲染为图片,传输时不传输图像而是文本
作者: #Xushengfeng
板块: #运营反馈
编号:
帖子: https://linux.do/t/topic/1842282
时间: 2026-03-28 20:17:11
摘要:
作者: #Xushengfeng
板块: #运营反馈
编号:
1842282帖子: https://linux.do/t/topic/1842282
时间: 2026-03-28 20:17:11
摘要:
我理解的aicg截图是为了防止爬取导致中文预料下降
但是截图有以下缺点:流量消耗大,无论对服务器、用户节点都造成负担;速度慢,观感不好;排版自适应不行;截图转换麻烦
下面提出我的一种方案:
用新的md标签比如<aicg></aicg>包裹ai内容,服务器解析,拆分出来,赋予一个资源id,客户端通过资源id拿到文本,并通过canvas在客户端渲染
上面的新html标签方便灵活处理aicg内容,包括像ai翻译也可以打上。然后canvas和图片一样有一定的反爬。至于资源id,如果不担心直接从api爬,可以完全不用,直接把原始ai文本保留在里面就可以了,简单包装一下base64或者其它也是可以的,后面解析和渲染就网页本地处理就可以了
如果就是想让aicg内容发布变得麻烦,以此支持手写原创内容,当我没说 doge
此文 made in human
标题: 感谢谷歌送来的2,346刀
作者: #Google
板块: #福利羊毛
编号:
帖子: https://linux.do/t/topic/1842311
时间: 2026-03-28 20:23:40
摘要:
作者: #Google
板块: #福利羊毛
编号:
1842311帖子: https://linux.do/t/topic/1842311
时间: 2026-03-28 20:23:40
摘要:
闲来无事早上起来绑卡本来计划300刀的
绑定的是自己的visa、扣费100港币
结果就这样了
有懂的佬解释一下吗 是扣钱了吗 有啥要注意的吗
标题: Amazon Project Kobe: 计划建造 大型超市 以抗衡沃尔玛
作者: #🐟
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/1842319
时间: 2026-03-28 20:24:51
摘要:
作者: #🐟
板块: #前沿快讯
编号:
1842319帖子: https://linux.do/t/topic/1842319
时间: 2026-03-28 20:24:51
摘要:
Business Insider
Inside Project Kobe: Amazon's plan to build Walmart-style supercenters...
Amazon's Project Kobe aims to disrupt Walmart with supercenters that blend retail and fulfillment automation, internal documents reveal.
[!quote]+
亚马逊正在通过一种新型超级中心进一步深入沃尔玛的领地。内部文件显示了该战略是如何形成的。
据《商业内幕》获得的内部文件显示,这家电子商务巨头正计划建造许多大型商店,将沃尔玛式的超级中心与机器人驱动的仓库结合起来,其中包括之前未报道的地点。
这项工作在内部被称为“神户计划”,是亚马逊迄今为止重塑实体零售业最雄心勃勃的尝试之一。这些商店将杂货和百货商品与嵌入在后面的自动化履行中心结合起来,旨在处理同一栋大楼内的店内购物、提货和送货。
标题: 神经网络与大语言模型初步 - 第一章 神经网络 4
作者: #Moonie
板块: #文档共建
编号:
帖子: https://linux.do/t/topic/1842342
时间: 2026-03-28 20:27:30
摘要:
作者: #Moonie
板块: #文档共建
编号:
1842342帖子: https://linux.do/t/topic/1842342
时间: 2026-03-28 20:27:30
摘要:
1.4 神经网络的训练
上一节讲了如何评价神经网络的效果,这一节我们讲神经网络效果的提升,即训练。
1.4.1 训练目标与损失函数
训练的目的是提高神经网络的效果,换言之,是提高神经网络在某个评估指标下的表现。
通常,我们使用的方式是梯度下降法,通过求出神经网络的参数在该评估指标下的梯度(即求导),得到参数空间下,能够提升指标的参数变动方向(即向量),然后让参数往这个方向让移动一小步,如此往复。(梯度下降法的更详细内容会在 1.4.2 讲)
容易想到,评估指标并非都是可以连续可导的,比如准确率 \mathrm{Accuracy} = \frac{\text{分类正确的样本数}}{\text{总样本数}} 就是一个典型的离散变量。
因此,我们引入损失函数(Loss Function) \mathcal{L} ,衡量模型预测值与真实值之间的差距,且对参数可微。可以认为,损失函数是一种连续可导的评估指标。
结合我们刚才简单介绍的梯度下降法,训练目标可以写成
\min_{\theta} \mathcal{L}(\theta)
即找到使损失函数尽可能小的参数 \theta
注:我们通常将复杂神经网络的参数记为 \theta,例如在MLP中,\theta = (w, b)
常见损失函数
回归任务(输出连续值)
和上一节的MAE、MSE评估指标相同(这里 N 为样本数)
MAE Loss(平均绝对误差)
\mathcal{L} = \frac{1}{N}\sum_{i=1}^{N}\left|\hat{y}^{(i)}-y^{(i)}\right|
MSE Loss(均方误差)
\mathcal{L} = \frac{1}{N}\sum_{i=1}^{N}\left(\hat{y}^{(i)}-y^{(i)}\right)^2
分类任务(输出离散值/类别)
分类任务常用交叉熵损失(Cross-Entropy Loss),而不是直接用准确率。
以二分类为例,真实标签 y^{(i)} \in \{0, 1\},模型输出预测为正类的概率 \hat{p}^{(i)} \in (0,1),则:
\mathcal{L} = -\frac{1}{N}\sum_{i=1}^{N}\left[y^{(i)}\log\hat{p}^{(i)} + (1-y^{(i)})\log(1-\hat{p}^{(i)})\right]
直观理解:
若真实标签为1(正类),且模型预测 \hat{p} 越接近1,则 -\log \hat{p} 越小,损失越低;
若真实标签为0(负类),且模型预测 \hat{p} 越接近0,则 -\log(1-\hat{p}) 越小,损失越低。
多分类任务的交叉熵类似,这里不展开。
注:
损失函数和评估指标并不总是一一对应的,选取哪个损失函数有时是经验和工程上的选择,核心标准是可微且能间接反映评估指标的优化方向
对于LLM,常用的损失函数是交叉熵损失,目标是最大化模型预测下一个token正确的概率;对应的评估指标则是pass@k、mean@k等
1.4.2 梯度下降法
我们定义了训练目标:\min_{\theta} \mathcal{L}(\theta),即找到使损失函数最小的参数。现在,我们来讲如何找到符合条件的参数 \theta ,即刚才简单介绍过的梯度下降法(Gradient Descent)。
直观理解
这里用一个非常经典、非常形象的例子。
想象一个人站在一片山地上,周围浓雾弥漫,看不清山的地形,而他的目标是走到山的谷底。唯一能做的,通过脚底感知脚下这片地的坡度,然后朝着最陡的下坡方向走一小步。重复这个过程,就可以一步步走到某个低洼处。
梯度下降法就是这个思路:
“山地"就是损失函数 \mathcal{L}(\theta) 在参数空间中的"地形”
"脚底下的坡度"就是梯度 \nabla_{\theta} \mathcal{L}
"朝最陡的下坡方向走一小步"就是参数更新
梯度
梯度 \nabla_{\theta} \mathcal{L} 是损失函数对所有参数的偏导数组成的向量:
\nabla_{\theta} \mathcal{L} = \left( \frac{\partial \mathcal{L}}{\partial \theta_1},\ \frac{\partial \mathcal{L}}{\partial \theta_2},\ \dots,\ \frac{\partial \mathcal{L}}{\partial \theta_d} \right)
其中, d 为参数的维度。(如果你不知道偏导,可以简单将其理解为多元函数对其某个自变量求得的导数)
梯度的方向指向损失函数增长最快的方向,因此,负梯度方向就是损失函数下降最快的方向。
参数更新公式
每一步,我们沿负梯度方向更新参数:
\theta \leftarrow \theta - \eta \cdot \nabla_{\theta} \mathcal{L}(\theta)
其中:
\eta > 0 为学习率(Learning Rate),用于控制更新的幅度;
\leftarrow 表示 参数更新,常见于一些优化理论
一个简单的例子
对于一个参数为 w 和 b 线性网络,它的MSE Loss为:
\mathcal{L}(w,b) = \frac{1}{N}\sum_{i=1}^{N}\left(wx^{(i)}+b - y^{(i)}\right)^2
则梯度为:
\frac{\partial \mathcal{L}}{\partial w} = \frac{2}{N}\sum_{i=1}^{N}\left(wx^{(i)}+b - y^{(i)}\right) x^{(i)}, \quad \frac{\partial \mathcal{L}}{\partial b} = \frac{2}{N}\sum_{i=1}^{N}\left(wx^{(i)}+b - y^{(i)}\right)
(这里 (i) 代表第i个样本)
每一步更新:
w \leftarrow w - \eta \cdot \frac{\partial \mathcal{L}}{\partial w}, \quad b \leftarrow b - \eta \cdot \frac{\partial \mathcal{L}}{\partial b}
反复迭代,w 和 b 就会逐渐逼近使损失最小的值。
标题: 有没有便宜的claude中专哇
作者: #宇智波佐助
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1842343
时间: 2026-03-28 20:27:35
摘要:
作者: #宇智波佐助
板块: #开发调优
编号:
1842343帖子: https://linux.do/t/topic/1842343
时间: 2026-03-28 20:27:35
摘要:
好多claude都贵的太大了,我不求白嫖,有啥稍稍偏移的吗