#职场社畜日常
✨人生两大乐事:搞事业和谈恋爱
作为我最深层的满足感来源,有很多共同之处:
❤️要好好去爱,好好去工作,全身心投入,才能体会深度又绵长的力量与滋养。
随便遇到一个人就在一起,摸鱼摆烂应付工作,那么就会觉得“男人都这样,恋爱没什么意思”、“这个b班谁爱上谁上”。
要真的去爱、去亲手工作,才能在与人与现实的互动里,更了解自我,什么适合、什么不适合自己;因为懂自己,而坚定,而更相信自己,相信未来。相信自己值得这美好的一切。
从物质到精神,被全方面地支持了。
❤️要见过和亲身感受过好老板、好工作、好公司,和足够好的人认真谈一场恋爱,才知道好的事业和好的关系可以是什么样的。
“什么是好的”是完全想象不出来的。
此刻无比感恩,在大学毕业第一份工作里就遇到了神仙老板、神仙公司,见过好的,从此往后的职业生涯,在很多问题和矛盾产生的时候,立马意识到是体制出了问题、人出了问题,而不是自己有错,少了很多内耗。
不知道什么是好的情况下,就会在垃圾堆里反复找恋人,和反复遇到pua的老板、烂公司。
❤️都能满足好奇心,打开不一样的人、不一样的工作里的新世界。
❤️恋爱与工作,都有刚开始新鲜感的激情期;但是激情褪去,有责任与承诺,有主观能动性能让关系、让事业变得更好的赤诚之心,才是长久之计。
❤️这二者都没有标准答案,每个人都只能自己探寻适合的路。
有的人适合结婚生子、岁月静好,有的人不婚、丁克;有的人体制内,有的人大厂高薪,有的人创业。这些都不是幸福的标准答案,人本来就是多样的,不需要迎合任何人的期待,只需要真实面对内心,自己开心就好!
不开心的恋爱不要谈!不想要的工作不要干!
✨人生两大乐事:搞事业和谈恋爱
作为我最深层的满足感来源,有很多共同之处:
❤️要好好去爱,好好去工作,全身心投入,才能体会深度又绵长的力量与滋养。
随便遇到一个人就在一起,摸鱼摆烂应付工作,那么就会觉得“男人都这样,恋爱没什么意思”、“这个b班谁爱上谁上”。
要真的去爱、去亲手工作,才能在与人与现实的互动里,更了解自我,什么适合、什么不适合自己;因为懂自己,而坚定,而更相信自己,相信未来。相信自己值得这美好的一切。
从物质到精神,被全方面地支持了。
❤️要见过和亲身感受过好老板、好工作、好公司,和足够好的人认真谈一场恋爱,才知道好的事业和好的关系可以是什么样的。
“什么是好的”是完全想象不出来的。
此刻无比感恩,在大学毕业第一份工作里就遇到了神仙老板、神仙公司,见过好的,从此往后的职业生涯,在很多问题和矛盾产生的时候,立马意识到是体制出了问题、人出了问题,而不是自己有错,少了很多内耗。
不知道什么是好的情况下,就会在垃圾堆里反复找恋人,和反复遇到pua的老板、烂公司。
❤️都能满足好奇心,打开不一样的人、不一样的工作里的新世界。
❤️恋爱与工作,都有刚开始新鲜感的激情期;但是激情褪去,有责任与承诺,有主观能动性能让关系、让事业变得更好的赤诚之心,才是长久之计。
❤️这二者都没有标准答案,每个人都只能自己探寻适合的路。
有的人适合结婚生子、岁月静好,有的人不婚、丁克;有的人体制内,有的人大厂高薪,有的人创业。这些都不是幸福的标准答案,人本来就是多样的,不需要迎合任何人的期待,只需要真实面对内心,自己开心就好!
不开心的恋爱不要谈!不想要的工作不要干!
#程序员
Github Profile 组件收集网站
https://bubble-awesome-profile.vercel.app/?gefei
界面挺好看的,还是开源的
https://github.com/LHRUN/bubble?gefei
Github Profile 组件收集网站
https://bubble-awesome-profile.vercel.app/?gefei
界面挺好看的,还是开源的
https://github.com/LHRUN/bubble?gefei
Forwarded from 出海🚢&自媒体运营秘籍
直播间高光内容提效法则
https://tqdo6rbu6vt.feishu.cn/docx/VjfZdGfEKoUH2AxLzohcMMqCnkb?from=from_copylink
短视频盈亏平衡点计算器
https://y954s1arm7.feishu.cn/wiki/BT5ew5kmJixeqJk30TNcYUKenef?from=from_copylink
运营操盘sop完整版
https://y954s1arm7.feishu.cn/wiki/UebkwrRYTiWiF9kE0gdcC0TCnme?from=from_copylink
直播GMV目标计算器(点开领取表格)
https://y954s1arm7.feishu.cn/wiki/wikcneHzBcdfszTqiXIIy7QlZFe?from=from_copylink
自媒体运营秘籍
https://tqdo6rbu6vt.feishu.cn/docx/VjfZdGfEKoUH2AxLzohcMMqCnkb?from=from_copylink
短视频盈亏平衡点计算器
https://y954s1arm7.feishu.cn/wiki/BT5ew5kmJixeqJk30TNcYUKenef?from=from_copylink
运营操盘sop完整版
https://y954s1arm7.feishu.cn/wiki/UebkwrRYTiWiF9kE0gdcC0TCnme?from=from_copylink
直播GMV目标计算器(点开领取表格)
https://y954s1arm7.feishu.cn/wiki/wikcneHzBcdfszTqiXIIy7QlZFe?from=from_copylink
自媒体运营秘籍
tqdo6rbu6vt.feishu.cn
Docs
❤1
#程序员
作者实践下来,算上 DBA、运维等成本,价格仍然比云要低很多,一千万的云成本,最高可以节省五百万。
对于成熟的中大型公司,面向未来三到五年做预算,(部分)自建机房会是一个很大的优化点,在全面降本增效的大背景下,也是一个必然趋势吧。
https://web.okjike.com/originalPost/65517c9fde31fdaa4ec50b61
作者实践下来,算上 DBA、运维等成本,价格仍然比云要低很多,一千万的云成本,最高可以节省五百万。
对于成熟的中大型公司,面向未来三到五年做预算,(部分)自建机房会是一个很大的优化点,在全面降本增效的大背景下,也是一个必然趋势吧。
https://web.okjike.com/originalPost/65517c9fde31fdaa4ec50b61
和一个大厂战投的哥们聊各个条线的AI技术和产品进展,
聊到另外一个大厂的AI战略,
他说:听说他们在All in AI;
我说:是啊,不All in 这个还能All in什么呢?
他说:从我人生角度也一样……这一集你也看过我不废话了。
艹了,
这TM,
把话题又给聊沉重了……
聊到另外一个大厂的AI战略,
他说:听说他们在All in AI;
我说:是啊,不All in 这个还能All in什么呢?
他说:从我人生角度也一样……这一集你也看过我不废话了。
艹了,
这TM,
把话题又给聊沉重了……
#程序员
使用检索增强(Retrieval-Augmented Generation,RAG)可以缓解大模型的幻觉问题,从而避免大模型胡说八道,但传统的 RAG 存在一个很大的弊端——无论内容跟输入是否有足够的关联、对事实是否有足够的支撑,搜索模块都会不加区分地将内容召回,然后交给大模型来进行推理,这会很大程度降低大模型的多功能性,并导致生成质量不佳。
Self-RAG,https://selfrag.github.io,在一定程度上解决了这个问题。它设计了一个算法,将内容召回过程与大模型的推理过程进行了深度结合,大致思路如下:
1)设计了一些标签,包括「是否检索」(Retrieve)、「内容是否相关」(ISREL)、「内容是否支撑事实」(ISSUP)、「内容是否可用」(ISUSE)等,可以理解它们是对检索内容进行评分的工具
2)循环「推理->检索->过滤->评分」这个流程,在推理过程中,结合已有的信息和 LLM 的反馈,来判断要不要继续检索,过程中会获得足够多的包含了评分的内容
3)根据已获得的信息的权重进行重新整理,将与内容相关、能够支撑事实以及高可用的内容保留下来
4)可以进行全局设定,对于事实性要求高的推理任务,增加检索频次;对于创造性要求高的推理任务,减少检索频次
这个算法思路的表现非常良好,只不过在过程中需要跟大模型进行多次交互,与 ToT(Tree of Thought) 类似,比较消耗资源。
它有一个工程上的完整实现,可以戳这个项目:https://github.com/AkariAsai/self-rag
使用检索增强(Retrieval-Augmented Generation,RAG)可以缓解大模型的幻觉问题,从而避免大模型胡说八道,但传统的 RAG 存在一个很大的弊端——无论内容跟输入是否有足够的关联、对事实是否有足够的支撑,搜索模块都会不加区分地将内容召回,然后交给大模型来进行推理,这会很大程度降低大模型的多功能性,并导致生成质量不佳。
Self-RAG,https://selfrag.github.io,在一定程度上解决了这个问题。它设计了一个算法,将内容召回过程与大模型的推理过程进行了深度结合,大致思路如下:
1)设计了一些标签,包括「是否检索」(Retrieve)、「内容是否相关」(ISREL)、「内容是否支撑事实」(ISSUP)、「内容是否可用」(ISUSE)等,可以理解它们是对检索内容进行评分的工具
2)循环「推理->检索->过滤->评分」这个流程,在推理过程中,结合已有的信息和 LLM 的反馈,来判断要不要继续检索,过程中会获得足够多的包含了评分的内容
3)根据已获得的信息的权重进行重新整理,将与内容相关、能够支撑事实以及高可用的内容保留下来
4)可以进行全局设定,对于事实性要求高的推理任务,增加检索频次;对于创造性要求高的推理任务,减少检索频次
这个算法思路的表现非常良好,只不过在过程中需要跟大模型进行多次交互,与 ToT(Tree of Thought) 类似,比较消耗资源。
它有一个工程上的完整实现,可以戳这个项目:https://github.com/AkariAsai/self-rag
👍2