#程序员
Github Profile 组件收集网站
https://bubble-awesome-profile.vercel.app/?gefei
界面挺好看的,还是开源的
https://github.com/LHRUN/bubble?gefei
Github Profile 组件收集网站
https://bubble-awesome-profile.vercel.app/?gefei
界面挺好看的,还是开源的
https://github.com/LHRUN/bubble?gefei
Forwarded from 出海🚢&自媒体运营秘籍
直播间高光内容提效法则
https://tqdo6rbu6vt.feishu.cn/docx/VjfZdGfEKoUH2AxLzohcMMqCnkb?from=from_copylink
短视频盈亏平衡点计算器
https://y954s1arm7.feishu.cn/wiki/BT5ew5kmJixeqJk30TNcYUKenef?from=from_copylink
运营操盘sop完整版
https://y954s1arm7.feishu.cn/wiki/UebkwrRYTiWiF9kE0gdcC0TCnme?from=from_copylink
直播GMV目标计算器(点开领取表格)
https://y954s1arm7.feishu.cn/wiki/wikcneHzBcdfszTqiXIIy7QlZFe?from=from_copylink
自媒体运营秘籍
https://tqdo6rbu6vt.feishu.cn/docx/VjfZdGfEKoUH2AxLzohcMMqCnkb?from=from_copylink
短视频盈亏平衡点计算器
https://y954s1arm7.feishu.cn/wiki/BT5ew5kmJixeqJk30TNcYUKenef?from=from_copylink
运营操盘sop完整版
https://y954s1arm7.feishu.cn/wiki/UebkwrRYTiWiF9kE0gdcC0TCnme?from=from_copylink
直播GMV目标计算器(点开领取表格)
https://y954s1arm7.feishu.cn/wiki/wikcneHzBcdfszTqiXIIy7QlZFe?from=from_copylink
自媒体运营秘籍
tqdo6rbu6vt.feishu.cn
Docs
❤1
#程序员
作者实践下来,算上 DBA、运维等成本,价格仍然比云要低很多,一千万的云成本,最高可以节省五百万。
对于成熟的中大型公司,面向未来三到五年做预算,(部分)自建机房会是一个很大的优化点,在全面降本增效的大背景下,也是一个必然趋势吧。
https://web.okjike.com/originalPost/65517c9fde31fdaa4ec50b61
作者实践下来,算上 DBA、运维等成本,价格仍然比云要低很多,一千万的云成本,最高可以节省五百万。
对于成熟的中大型公司,面向未来三到五年做预算,(部分)自建机房会是一个很大的优化点,在全面降本增效的大背景下,也是一个必然趋势吧。
https://web.okjike.com/originalPost/65517c9fde31fdaa4ec50b61
和一个大厂战投的哥们聊各个条线的AI技术和产品进展,
聊到另外一个大厂的AI战略,
他说:听说他们在All in AI;
我说:是啊,不All in 这个还能All in什么呢?
他说:从我人生角度也一样……这一集你也看过我不废话了。
艹了,
这TM,
把话题又给聊沉重了……
聊到另外一个大厂的AI战略,
他说:听说他们在All in AI;
我说:是啊,不All in 这个还能All in什么呢?
他说:从我人生角度也一样……这一集你也看过我不废话了。
艹了,
这TM,
把话题又给聊沉重了……
#程序员
使用检索增强(Retrieval-Augmented Generation,RAG)可以缓解大模型的幻觉问题,从而避免大模型胡说八道,但传统的 RAG 存在一个很大的弊端——无论内容跟输入是否有足够的关联、对事实是否有足够的支撑,搜索模块都会不加区分地将内容召回,然后交给大模型来进行推理,这会很大程度降低大模型的多功能性,并导致生成质量不佳。
Self-RAG,https://selfrag.github.io,在一定程度上解决了这个问题。它设计了一个算法,将内容召回过程与大模型的推理过程进行了深度结合,大致思路如下:
1)设计了一些标签,包括「是否检索」(Retrieve)、「内容是否相关」(ISREL)、「内容是否支撑事实」(ISSUP)、「内容是否可用」(ISUSE)等,可以理解它们是对检索内容进行评分的工具
2)循环「推理->检索->过滤->评分」这个流程,在推理过程中,结合已有的信息和 LLM 的反馈,来判断要不要继续检索,过程中会获得足够多的包含了评分的内容
3)根据已获得的信息的权重进行重新整理,将与内容相关、能够支撑事实以及高可用的内容保留下来
4)可以进行全局设定,对于事实性要求高的推理任务,增加检索频次;对于创造性要求高的推理任务,减少检索频次
这个算法思路的表现非常良好,只不过在过程中需要跟大模型进行多次交互,与 ToT(Tree of Thought) 类似,比较消耗资源。
它有一个工程上的完整实现,可以戳这个项目:https://github.com/AkariAsai/self-rag
使用检索增强(Retrieval-Augmented Generation,RAG)可以缓解大模型的幻觉问题,从而避免大模型胡说八道,但传统的 RAG 存在一个很大的弊端——无论内容跟输入是否有足够的关联、对事实是否有足够的支撑,搜索模块都会不加区分地将内容召回,然后交给大模型来进行推理,这会很大程度降低大模型的多功能性,并导致生成质量不佳。
Self-RAG,https://selfrag.github.io,在一定程度上解决了这个问题。它设计了一个算法,将内容召回过程与大模型的推理过程进行了深度结合,大致思路如下:
1)设计了一些标签,包括「是否检索」(Retrieve)、「内容是否相关」(ISREL)、「内容是否支撑事实」(ISSUP)、「内容是否可用」(ISUSE)等,可以理解它们是对检索内容进行评分的工具
2)循环「推理->检索->过滤->评分」这个流程,在推理过程中,结合已有的信息和 LLM 的反馈,来判断要不要继续检索,过程中会获得足够多的包含了评分的内容
3)根据已获得的信息的权重进行重新整理,将与内容相关、能够支撑事实以及高可用的内容保留下来
4)可以进行全局设定,对于事实性要求高的推理任务,增加检索频次;对于创造性要求高的推理任务,减少检索频次
这个算法思路的表现非常良好,只不过在过程中需要跟大模型进行多次交互,与 ToT(Tree of Thought) 类似,比较消耗资源。
它有一个工程上的完整实现,可以戳这个项目:https://github.com/AkariAsai/self-rag
👍2