#出海运营秘籍👉@yunying23
创作者怎样克服倦怠期,在糟糕状态下,也能持续产出内容?
今天在杭州良渚的启师傅AI客厅一周年,听几位头部创作者分享,很有启发,给大家分享下~
1、Flomo的创始人@少楠Plidezus
纪律和责任,让我必须持续。
少楠的内容专栏《产品沉思录》,从开始就是收费的,因为收费可以验证是否市场真的需要,收费也意味着必须交付,不然会被骂。
2、《三五环》《半拿铁》主播@刘飞Lufy
长内容的制作过程,本身就是不碎片化的,所以也更容易沉浸。
他会给自己设定每天的任务,比如今天是写稿日,就沉浸式写稿,今天是玩游戏日,就沉浸式玩游戏。
最难的是开始写稿的前五分钟,需要克服自己的惰性,但一旦开始就沉浸式创作。 3、职场博主@姜Dora在此 这个问题有点像你跟一个你最喜欢的人结婚了,你也不会一直保持一个兴奋感,一定会有倦怠感。
- 去旅行,过程中会发生陌生的故事,给你新的灵感 - 只选对你来说很有情感反应的对谈者 - 去思考当下你不愿意创作的过程中,你抵抗的是什么? 比如重复、倦怠——那就杀死重复,去做做陌生的事;比如越来越套路——那就要抵抗平庸 ,出发去更好的地方,直面它。
- 构建外部环境的干预
把你的公司当作产品去设计,持续去调试你生产内容的小系统,增加AI在繁琐工作中的比重。
怎样持续地创作,持续地突破自己的上限,是每一个创作者都要思考和面对的问题,但唯有突破它才能进入下一个level。
今天听完又有新的动力继续认真创作了哈哈,谢谢嘉宾和@启师傅今天逛动物园了吗 组织的活动!
和每一位创作者共勉~
创作者怎样克服倦怠期,在糟糕状态下,也能持续产出内容?
今天在杭州良渚的启师傅AI客厅一周年,听几位头部创作者分享,很有启发,给大家分享下~
1、Flomo的创始人@少楠Plidezus
纪律和责任,让我必须持续。
少楠的内容专栏《产品沉思录》,从开始就是收费的,因为收费可以验证是否市场真的需要,收费也意味着必须交付,不然会被骂。
2、《三五环》《半拿铁》主播@刘飞Lufy
长内容的制作过程,本身就是不碎片化的,所以也更容易沉浸。
他会给自己设定每天的任务,比如今天是写稿日,就沉浸式写稿,今天是玩游戏日,就沉浸式玩游戏。
最难的是开始写稿的前五分钟,需要克服自己的惰性,但一旦开始就沉浸式创作。 3、职场博主@姜Dora在此 这个问题有点像你跟一个你最喜欢的人结婚了,你也不会一直保持一个兴奋感,一定会有倦怠感。
- 去旅行,过程中会发生陌生的故事,给你新的灵感 - 只选对你来说很有情感反应的对谈者 - 去思考当下你不愿意创作的过程中,你抵抗的是什么? 比如重复、倦怠——那就杀死重复,去做做陌生的事;比如越来越套路——那就要抵抗平庸 ,出发去更好的地方,直面它。
- 构建外部环境的干预
把你的公司当作产品去设计,持续去调试你生产内容的小系统,增加AI在繁琐工作中的比重。
怎样持续地创作,持续地突破自己的上限,是每一个创作者都要思考和面对的问题,但唯有突破它才能进入下一个level。
今天听完又有新的动力继续认真创作了哈哈,谢谢嘉宾和@启师傅今天逛动物园了吗 组织的活动!
和每一位创作者共勉~
一直记得《电脑报》2000年刊登的这篇访谈文章。刚找出来了。访谈Foxmail的作者张小龙。那时Foxmail还没有被博大收购。张小龙也还没加入腾讯开发QQ邮箱,微信更是十年后的事情。那时的张小龙站在人生十字路口,动了念头,想去美国做一个程序员。
这篇文章里的一句话如今看来很有意思:
“一个免费软件有200万人每天使用,真是一个奇迹。”
那时候没有任何人能想到,张小龙将开发出日活超过10亿用户的“免费软件”。
这篇文章里的一句话如今看来很有意思:
“一个免费软件有200万人每天使用,真是一个奇迹。”
那时候没有任何人能想到,张小龙将开发出日活超过10亿用户的“免费软件”。
#出海运营秘籍👉@yunying23
最近在闭门开发新课程,网易云课堂上的老电商课程已经太久没更新,需要系统的更新,全部重新录制一遍。
重听了一下我自己之前的课程,不得不说,我讲的真好,干货极其密集,即使是现在也是一流水准。但是现在市场变化,需要做一些调整,尤其是我们自己做了小红书和抖音,很多玩法也一直在变。
创业做生意这件事,其实归根结底,要看你的决心和执行力,方法只能排第二。甚至可以说,方法不重要,你到底是不是想做成这件事更重要,你想做,不用报任何课程,你也会想尽一切办法学会。课程只不过是给你提供一些快速上手的经验,省去了摸索的时间。
拿我们自己做抖音和小红书来说,我管你三七二十一,什么ip,什么选题,我通通不管,我就搞一堆账号,纯发广告,一年也做了打大几百万销售额。我做小红书之前,都没有下载这个软件,直接上手就干。你真想做这个事,执行力比任何事都重要。
最近在闭门开发新课程,网易云课堂上的老电商课程已经太久没更新,需要系统的更新,全部重新录制一遍。
重听了一下我自己之前的课程,不得不说,我讲的真好,干货极其密集,即使是现在也是一流水准。但是现在市场变化,需要做一些调整,尤其是我们自己做了小红书和抖音,很多玩法也一直在变。
创业做生意这件事,其实归根结底,要看你的决心和执行力,方法只能排第二。甚至可以说,方法不重要,你到底是不是想做成这件事更重要,你想做,不用报任何课程,你也会想尽一切办法学会。课程只不过是给你提供一些快速上手的经验,省去了摸索的时间。
拿我们自己做抖音和小红书来说,我管你三七二十一,什么ip,什么选题,我通通不管,我就搞一堆账号,纯发广告,一年也做了打大几百万销售额。我做小红书之前,都没有下载这个软件,直接上手就干。你真想做这个事,执行力比任何事都重要。
Forwarded from ghost
Media is too big
VIEW IN TELEGRAM
✅ #球速 体育
球速体育 大会员再创新高:
✅ u存u提每日提款无上限,随便提、全球不限ip、免实名、无需绑定手机号码和银行卡,大额出款无忧 (您的最佳选择,欢迎体验)
🔥平台
注册升级领18888, 每周送福利5888
每日存款彩金每日送,每笔存款加赠
💖vip客服专属热线,添加客服领取活动福利
🌐官网客服: @QSTY567
Please open Telegram to view this post
VIEW IN TELEGRAM
分享我的学习方法,很简单
1. 每周看一本书:什么书都看,如果遇到好看的可以每天看一本书,比如罗马人的故事。读书的强度一定要很高,才能两边引起质变
2. 看书好的地方:拍照OCR识别,我给团队说了,懒猫微服赶紧加批量OCR的功能,这样下次我的读书笔记可以节省80%的时间。因为有些书很长,你读到最后的时候,忘记了前面讲的啥,你从头到尾梳理一遍,相当于把书读了2遍,书读2遍基本上就学习的很牢
3. 以教代学:书看完了,只是知道了,但是是否学会还要学以致用。最快的学以致用的方法就是,脑袋里对知识再次梳理,当你想给别人分享的时候,你就会像AI大模型那样,找到零散的知识点之间的关联,这些知识点关联组成网状的画面才是真正的知识。当你把故事和逻辑讲清楚的那一刻,你也就彻底学会了运用知识,而不仅仅是知道知识
所以,大佬们,给你们分享知识不是一种利他行为,本质是一种利己行为,我的分享可以让我更快的学习知识
@https1024
1. 每周看一本书:什么书都看,如果遇到好看的可以每天看一本书,比如罗马人的故事。读书的强度一定要很高,才能两边引起质变
2. 看书好的地方:拍照OCR识别,我给团队说了,懒猫微服赶紧加批量OCR的功能,这样下次我的读书笔记可以节省80%的时间。因为有些书很长,你读到最后的时候,忘记了前面讲的啥,你从头到尾梳理一遍,相当于把书读了2遍,书读2遍基本上就学习的很牢
3. 以教代学:书看完了,只是知道了,但是是否学会还要学以致用。最快的学以致用的方法就是,脑袋里对知识再次梳理,当你想给别人分享的时候,你就会像AI大模型那样,找到零散的知识点之间的关联,这些知识点关联组成网状的画面才是真正的知识。当你把故事和逻辑讲清楚的那一刻,你也就彻底学会了运用知识,而不仅仅是知道知识
所以,大佬们,给你们分享知识不是一种利他行为,本质是一种利己行为,我的分享可以让我更快的学习知识
@https1024
Forwarded from Post Bot
Media is too big
VIEW IN TELEGRAM
官方同步 · 实时开奖 · 公平透明
爆庄王者 首充1000,6天狂赚120万U
爆奖接力 玩家500一拉爆奖133万U
麻将传说 · 一局起飞 · 豪揽100万U🌊 亿万备用金坐镇|大额无忧 · 真硬实力
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from ghost
Media is too big
VIEW IN TELEGRAM
以小博大直接爆15000倍 点击查看
实力盘总4000一拉直接爆2304000 点击查看
注册升级领18888, 每周送福利5888
每日存款彩金每日送,每笔存款加赠
🌐 官网注册网址 : 1820036.com
💖专属VIP客服: @vipkf_182ty8
💖吃瓜搞笑:@chiguagaoxiaoxinwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Post Bot
Media is too big
VIEW IN TELEGRAM
🌐 官网注册网址 : y3867.com
💖Y3国际专属客服:@Y3VIP8888
💖午夜剧场:@madoudp9
Please open Telegram to view this post
VIEW IN TELEGRAM
GiffGaff电话卡用了一年多了 应该是目前最便宜最划算的国外接短信专用电话卡了
电话卡免费寄上门 英国号码 收短信是无限的 只需要180天保号一次 发个短信给任何国内号码就可以 一次花费0.3磅 一年也就0.6磅 没有其他任何费用了 注册了各种服务都是可以用的
用了这个以后 我把其他两张都取消了
@https1024
电话卡免费寄上门 英国号码 收短信是无限的 只需要180天保号一次 发个短信给任何国内号码就可以 一次花费0.3磅 一年也就0.6磅 没有其他任何费用了 注册了各种服务都是可以用的
用了这个以后 我把其他两张都取消了
@https1024
最近看到一个很火的关于出国或者在国内的争论,正好前几天看到一段很喜欢的话:
“我这一生中从来没有爱过任何一个民族、任何一个集体——不爱德意志,不爱法兰西,不爱美利坚,不爱工人阶级,不爱这一切。我‘只’爱我的朋友,我所知道、所信仰的惟一一种爱,就是爱人。”
- 汉娜·阿伦特
应该做地球公民,甚至是宇宙公民,哪里让自己最舒服就应该呆在哪里,不舒服了就离开寻找更好的地方,人应该是流动的。
@https1024
“我这一生中从来没有爱过任何一个民族、任何一个集体——不爱德意志,不爱法兰西,不爱美利坚,不爱工人阶级,不爱这一切。我‘只’爱我的朋友,我所知道、所信仰的惟一一种爱,就是爱人。”
- 汉娜·阿伦特
应该做地球公民,甚至是宇宙公民,哪里让自己最舒服就应该呆在哪里,不舒服了就离开寻找更好的地方,人应该是流动的。
@https1024
用 Cursor 挺久了,最近从零到一一起做了稍微复杂一些的 monorepo 项目,针对这种类型的项目分享自己的一个非常实用的经验:
针对中大型项目,在项目架构稳定之后,针对自己项目的结构,让 Cursor 生成一个包含项目架构图的 cursor rule,它解释了整个项目的架构,然后在后面添加各种 feature 的时候都可以带着这个 rule,会大大节省和解放时间,让它更了解你的复杂项目,提升 AI 的准确率,是一个我认为到现在为止非常实用的技巧,没有这个 rule 的情况下, 如果没有添加足够上下文的话,AI 经常会胡乱添加很多没用的文件。
今天发现另外一个英文推也用了这个rule,看来是一个非常常用的技巧。
@https1024
针对中大型项目,在项目架构稳定之后,针对自己项目的结构,让 Cursor 生成一个包含项目架构图的 cursor rule,它解释了整个项目的架构,然后在后面添加各种 feature 的时候都可以带着这个 rule,会大大节省和解放时间,让它更了解你的复杂项目,提升 AI 的准确率,是一个我认为到现在为止非常实用的技巧,没有这个 rule 的情况下, 如果没有添加足够上下文的话,AI 经常会胡乱添加很多没用的文件。
今天发现另外一个英文推也用了这个rule,看来是一个非常常用的技巧。
@https1024
来纽约曼哈顿,走 AI 工程师红毯
大家好,上个月我从旧金山去纽约参加了 AI Engineer Summit,这是 AI Engineering 里每年最值得关注的硬核会议,也是一年一度头部 AI 工程师们的“聚会”。整个三年里的体验很魔幻也很好玩,高密度的人和信息量,高效、切身地感受到了 AI 模型当前发展的阶段、瓶颈以及各领域里“大家都在做什么”。
本文总结来自现场 Anthropic、Arc、Every等团队的分享以及“怎么做AI Memory”的第二期,把记忆训练进模型里,而不仅仅放在context engineering。包括:
1. RAG 的局限性
2. 上下文嵌入(Context Embeding): 一种保存领域数据的文本嵌入方式
3. AI Memory:如何把记忆训练到模型里?SFT、RL 、合成数据
4. 如何做模型后训练(Post-training)?LoRA、Prefix、Memory Layer
我最近也在构建一个结合知识图谱的 AI Memory 开源项目,有兴趣 contribute 的朋友可以到文末找我进行交流。
大家好,上个月我从旧金山去纽约参加了 AI Engineer Summit,这是 AI Engineering 里每年最值得关注的硬核会议,也是一年一度头部 AI 工程师们的“聚会”。整个三年里的体验很魔幻也很好玩,高密度的人和信息量,高效、切身地感受到了 AI 模型当前发展的阶段、瓶颈以及各领域里“大家都在做什么”。
本文总结来自现场 Anthropic、Arc、Every等团队的分享以及“怎么做AI Memory”的第二期,把记忆训练进模型里,而不仅仅放在context engineering。包括:
1. RAG 的局限性
2. 上下文嵌入(Context Embeding): 一种保存领域数据的文本嵌入方式
3. AI Memory:如何把记忆训练到模型里?SFT、RL 、合成数据
4. 如何做模型后训练(Post-training)?LoRA、Prefix、Memory Layer
我最近也在构建一个结合知识图谱的 AI Memory 开源项目,有兴趣 contribute 的朋友可以到文末找我进行交流。