方向对了,路多远都不怕!
Lisa Su 在11年前的今天,2014年10月8日,获任AMD的CEO,当时AMD市值25亿美元💵,昨天AMD市值约3400亿美元💵,增长137倍。
11年前的今天,英伟达市值98亿美元💵,昨天英伟达市值约4.5万亿美元💵,同期增长了460倍。
数据来源:Grok
Lisa Su 在11年前的今天,2014年10月8日,获任AMD的CEO,当时AMD市值25亿美元💵,昨天AMD市值约3400亿美元💵,增长137倍。
11年前的今天,英伟达市值98亿美元💵,昨天英伟达市值约4.5万亿美元💵,同期增长了460倍。
数据来源:Grok
🎉1
分享一个我的AI创作流,对我过往的流程,提效基本上是降维打击
我主要的诉求是内容上的一鱼多吃
首先,AI时代我会刻意收集自己的内容语料,比如咨询/分享/上课等我会录音,这是我的原始语料。
录音结束后,我会发给通义听悟,让它帮我转成逐字稿,可读性很差。
第二步我会用自己做的智能体,把我的逐字稿进行一次内容提纯,提高可读性,如果价值很高,我会直接转化为钩子产品,用来引流。
第三步,用notebookllm+原始语料写文章,速度很快,内容是我自己的,通过AI共创,大概能提效一倍
notebookllm是我用过,rag做的最好的平台
第四步,再用我的智能体进行内容结构化,结构成观点/短内容/选题,进行二次内容利用,发在各个平台和社群里
我主要的诉求是内容上的一鱼多吃
首先,AI时代我会刻意收集自己的内容语料,比如咨询/分享/上课等我会录音,这是我的原始语料。
录音结束后,我会发给通义听悟,让它帮我转成逐字稿,可读性很差。
第二步我会用自己做的智能体,把我的逐字稿进行一次内容提纯,提高可读性,如果价值很高,我会直接转化为钩子产品,用来引流。
第三步,用notebookllm+原始语料写文章,速度很快,内容是我自己的,通过AI共创,大概能提效一倍
notebookllm是我用过,rag做的最好的平台
第四步,再用我的智能体进行内容结构化,结构成观点/短内容/选题,进行二次内容利用,发在各个平台和社群里
❤1✍1
Forwarded from Post Bot
This media is not supported in your browser
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
谷歌《AI Agent 应用 设计模式》- 构建智能系统的实用指南
https://docs.google.com/document/d/1rsaK53T3Lg5KoGwvf8ukOUvbELRtH-V0LnOIFDxBryE/preview
https://docs.google.com/document/d/1rsaK53T3Lg5KoGwvf8ukOUvbELRtH-V0LnOIFDxBryE/preview
❤1
Dan Koe:如何真正掌握一项技能
- 别再埋头苦读了。
- 真正的学习始于创造。
- 先勾勒一个你想做的东西——可以是一个小项目,一件作品,任何具体的事物。
- 然后开始动手。
- 很快你会撞墙。这是好事。这堵墙告诉你:你真正需要学什么。
- 如此往复,直到项目完成。
这才是真正的掌握之道。
大多数人的问题在于,他们在教程的迷宫里转了好几年,却两手空空——因为他们一直在为「某一天」做准备,而那一天从未到来。
- 别再埋头苦读了。
- 真正的学习始于创造。
- 先勾勒一个你想做的东西——可以是一个小项目,一件作品,任何具体的事物。
- 然后开始动手。
- 很快你会撞墙。这是好事。这堵墙告诉你:你真正需要学什么。
- 如此往复,直到项目完成。
这才是真正的掌握之道。
大多数人的问题在于,他们在教程的迷宫里转了好几年,却两手空空——因为他们一直在为「某一天」做准备,而那一天从未到来。
💯3
分享一个网友提供关于 Vercel 的省钱建议(具体见图片),大多数情况下体验会有提升(但实际体验效果和项目代码实现肯定是密切相关的),
❓为什么
- Fluid Compute 保持至少一个函数处于活跃状态,极大地减少首次访问冷启动的等待,大多数用户感知到的页面首次加载速度会更快
- 允许一个函数实例并发处理多个请求,例如 AI 推理、API 聚合、I/O 密集型任务都能显著提升吞吐量和响应速度,对于高并发场景尤其有利
- 动态扩容,遇到流量高峰也能稳定保障响应,它还支持 waitUntil 异步后台处理机制,让日志、分析等操作不拖慢用户请求
👉 补充一下开通方式:
1. 2025 年 5 月开始新建的项目默认是开通
2. 老项目在 setting -> functions -> fluid compute
❓为什么
- Fluid Compute 保持至少一个函数处于活跃状态,极大地减少首次访问冷启动的等待,大多数用户感知到的页面首次加载速度会更快
- 允许一个函数实例并发处理多个请求,例如 AI 推理、API 聚合、I/O 密集型任务都能显著提升吞吐量和响应速度,对于高并发场景尤其有利
- 动态扩容,遇到流量高峰也能稳定保障响应,它还支持 waitUntil 异步后台处理机制,让日志、分析等操作不拖慢用户请求
👉 补充一下开通方式:
1. 2025 年 5 月开始新建的项目默认是开通
2. 老项目在 setting -> functions -> fluid compute
我来打卡了,生怕下周掉运营人头衔
翻到了离职前的备忘录,写了6点
1、很多人的工作习惯、风格,都有历史渊源,这是他们权衡利弊后的选择,理解万岁
2、要各领域最专业的人打配合,不找猪队友
3、永远叫不醒装睡的人,沉默和冷眼旁观蛮好的,放下助人情节,尊重个人命运
4、每个人接收的信息普遍局限,多渠道校验,足够敏锐和缜密推测,才能发现人的本色
5、比惨让人情绪稳定
6、尊重是线上对话完一个回合再走,临时有事要消失也会说下
翻到了离职前的备忘录,写了6点
1、很多人的工作习惯、风格,都有历史渊源,这是他们权衡利弊后的选择,理解万岁
2、要各领域最专业的人打配合,不找猪队友
3、永远叫不醒装睡的人,沉默和冷眼旁观蛮好的,放下助人情节,尊重个人命运
4、每个人接收的信息普遍局限,多渠道校验,足够敏锐和缜密推测,才能发现人的本色
5、比惨让人情绪稳定
6、尊重是线上对话完一个回合再走,临时有事要消失也会说下
👍1
Forwarded from Post Bot
以上活动彩金只需要一倍流水即可提款!
活动倒计时中!三重豪礼等待领取!
老板都是来凯旋,大奖和您很有缘!
Please open Telegram to view this post
VIEW IN TELEGRAM