Forwarded from 开源社区
开源输入法以及拼音方案的汇总贴,欢迎大家随时补充。
PC端:
1. weasel 小狼毫 适用于Windows系统的开源输入法
2.squirrel 鼠须管 适用于macOS的开源输入法
3. ibus-rime 适用于Linux系统的开源输入法
4.openvanilla 专门针对macOS开发的开源输入法
移动端:
1.fcitx5-android 适用于Android系统的开源输入法,从Fcitx 5移植而来。
2. trime 同文 适用于Android系统的开源输入法,给予rime开发而来。
3.YuyanIme 雨燕 适用于Android系统的开源输入法,基于rime定制开发。
4. Hamster 适用于iOS系统的开源输入法,基于rime定制开发。
拼音方案:
1.rime-ice 雾凇拼音,目前知名度最广的拼音方案之一
2.rime-frost 白霜词库,基于雾凇拼音进行词频调整的拼音方案
3.oh-my-rime 薄荷拼音,基于雾凇拼音进行调整的轻量级拼音方案
🏷 TAG #输入法
📢 Channel @opencfdchannel
👥 Group @open_source_community
PC端:
1. weasel 小狼毫 适用于Windows系统的开源输入法
2.squirrel 鼠须管 适用于macOS的开源输入法
3. ibus-rime 适用于Linux系统的开源输入法
4.openvanilla 专门针对macOS开发的开源输入法
移动端:
1.fcitx5-android 适用于Android系统的开源输入法,从Fcitx 5移植而来。
2. trime 同文 适用于Android系统的开源输入法,给予rime开发而来。
3.YuyanIme 雨燕 适用于Android系统的开源输入法,基于rime定制开发。
4. Hamster 适用于iOS系统的开源输入法,基于rime定制开发。
拼音方案:
1.rime-ice 雾凇拼音,目前知名度最广的拼音方案之一
2.rime-frost 白霜词库,基于雾凇拼音进行词频调整的拼音方案
3.oh-my-rime 薄荷拼音,基于雾凇拼音进行调整的轻量级拼音方案
🏷 TAG #输入法
📢 Channel @opencfdchannel
👥 Group @open_source_community
GitHub
GitHub - rime/weasel: 【小狼毫】Rime for Windows
【小狼毫】Rime for Windows. Contribute to rime/weasel development by creating an account on GitHub.
Forwarded from 开源社区
PocketPal, 一款本地大模型推理软件。
Check out "PocketPal"
https://play.google.com/store/apps/details?id=com.pocketpalai
Check out "PocketPal"
https://play.google.com/store/apps/details?id=com.pocketpalai
Google Play
PocketPal - Apps on Google Play
PocketPal is an app for secure and private conversation with open source LLMs
Forwarded from 开源社区
《提问的智慧》
该指南帮助您了解如何清晰、准确地描述问题,以便群组成员能够更快、更有效地提供帮助。
《别像弱智一样提问》
这篇指南列举了低效提问的常见陷阱,帮助您避免这些误区,从而提升您的提问质量。
🏷 TAG #社交 #提问
📢 Channel @opencfdchannel
👥 Group @open_source_community
该指南帮助您了解如何清晰、准确地描述问题,以便群组成员能够更快、更有效地提供帮助。
《别像弱智一样提问》
这篇指南列举了低效提问的常见陷阱,帮助您避免这些误区,从而提升您的提问质量。
🏷 TAG #社交 #提问
📢 Channel @opencfdchannel
👥 Group @open_source_community
GitHub
How-To-Ask-Questions-The-Smart-Way/README-zh_CN.md at main · ryanhanwu/How-To-Ask-Questions-The-Smart-Way
本文原文由知名 Hacker Eric S. Raymond 所撰寫,教你如何正確的提出技術問題並獲得你滿意的答案。 - ryanhanwu/How-To-Ask-Questions-The-Smart-Way
Forwarded from 开源社区
AcWiKi 属于大学生群体的真·青年大学习,致力于打造一个涵盖大学生生活经验和学术技能的百科全书。
🏷 TAG #学习 #GitHub
📢 Channel @opencfdchannel
👥 Group @open_source_community
🏷 TAG #学习 #GitHub
📢 Channel @opencfdchannel
👥 Group @open_source_community
GitHub
GitHub - Ac-Wiki/AcWiKi: 属于大学生群体的真·青年大学习
属于大学生群体的真·青年大学习. Contribute to Ac-Wiki/AcWiKi development by creating an account on GitHub.
Forwarded from 开源社区
reverse-interview-zh 反向面试:你问的不只是问题,你看到的是未来。
🏷 TAG #面试 #GitHub
📢 Channel @opencfdchannel
👥 Group @open_source_community
🏷 TAG #面试 #GitHub
📢 Channel @opencfdchannel
👥 Group @open_source_community
GitHub
GitHub - perklet/reverse-interview-zh: 技术面试最后反问面试官的话
技术面试最后反问面试官的话. Contribute to perklet/reverse-interview-zh development by creating an account on GitHub.
Forwarded from 你不知道的内幕消息
普通人生活里面真的太多主次颠倒的努力了,借由马斯克第一性原理来解释。
职场的第一准则是稀缺性价值,而不是劳苦功高;
创业第一要点是市场需求,而不是个人喜好;
健康的第一要素是生活好习惯,而不是事后保险有多么全;
教育的最终目的是培养能力,而不是奖状和分数;
养老的最佳保障是提前规划,而不是依赖子女;
学习的第一准则应该是实践,而不是不停的考试积累;
成长的最终原动力是来自于反思和总结,而不是看似很多的经历。
#提升认知 @inside1024
职场的第一准则是稀缺性价值,而不是劳苦功高;
创业第一要点是市场需求,而不是个人喜好;
健康的第一要素是生活好习惯,而不是事后保险有多么全;
教育的最终目的是培养能力,而不是奖状和分数;
养老的最佳保障是提前规划,而不是依赖子女;
学习的第一准则应该是实践,而不是不停的考试积累;
成长的最终原动力是来自于反思和总结,而不是看似很多的经历。
#提升认知 @inside1024
Forwarded from 你不知道的内幕消息
在抖音
5000万粉丝以上的账号有18个
1000万粉丝以上的账号有903个
500万粉丝以上的账号有3079个
100万粉丝以上的账号有3.67万个
10万粉丝以上的账号有47.3万个
1万粉丝以上的账号有320万个
有发过视频的用户有2亿用户
所以十万粉丝的诞生概率是0.24%
而作为对比:
去年全国985高校的平均录取率为1.41%
去年公务员考试录取率为1.47%
福利彩票双色球五等奖中奖概率0.8%、六等奖中奖概率6.25%
#行业内幕 @inside1024
5000万粉丝以上的账号有18个
1000万粉丝以上的账号有903个
500万粉丝以上的账号有3079个
100万粉丝以上的账号有3.67万个
10万粉丝以上的账号有47.3万个
1万粉丝以上的账号有320万个
有发过视频的用户有2亿用户
所以十万粉丝的诞生概率是0.24%
而作为对比:
去年全国985高校的平均录取率为1.41%
去年公务员考试录取率为1.47%
福利彩票双色球五等奖中奖概率0.8%、六等奖中奖概率6.25%
#行业内幕 @inside1024
Forwarded from AI探索指南
关注 AI 必读!Anthropic CEO 万字长文-预测强人工智能的积极未来。#ai#
描述了自己思考中的强人工智能的定义,详细介绍了强人工智能可能在五个核心方面对未来人类的积极作用。
叙述极为严谨在每个领域都有严密详细的推理过程,值得所有人关注 AI 的人看一下。
全文的翻译在这里:https://mp.weixin.qq.com/s/StZeb__lyrZl_as_sQ8l6A
下面是整理的要点:
- 大多数人都低估了 AI 可能带来的巨大积极影响,就像他们低估了潜在风险的严重性一样。
- Dario Amodei经常对许多 AI 风险领域的公众人物(更不用说 AI 公司领导人(说你呢 Sam))谈论后通用人工智能 (AGI) 世界的方式感到不适。
- Dario Amodei认为强人工智能可能最早会在 2026 年出现,尽管也有可能需要更长的时间。
- 强人工智能在形式上可能类似于今天的大型语言模型 (LLM),但可能采用不同的架构,可能涉及多个相互作用的模型,并可能以不同的方式进行训练。**强人工智能具体的特点有**:
- 在纯粹的智力方面,它比大多数相关领域的顶尖专家更聪明。
- 除了作为一个"聪明的对话伙伴",它还具备虚拟工作环境中人类可用的所有"接口",包括文字、语音、视频、鼠标键盘控制和互联网访问。
- 它不只是被动回答问题,而是可以接受需要数小时、数天甚至数周才能完成的任务。
- 它没有物理实体(除了存在于计算机系统中),但可以通过计算机控制现有的物理工具、机器人或实验室设备。
- 用于训练这个模型的计算资源可以重新用于同时运行数百万个实例。这个模型可以以比人类快 10-100 倍的速度吸收信息和产生行动。
- 这数百万个副本中的每一个都可以独立执行不同的任务,或者在需要时像人类团队一样协作工作。
- **可能与强人工智能互补的因素和限制性因素:**
- 外部世界的速度。智能体需要在现实世界中互动才能完成任务和学习。但现实世界的运转速度是有限的。
- 数据需求。有时候,原始数据的缺乏会成为瓶颈,在这种情况下,再高的智能也无济于事。
- 内在复杂性。有些系统本质上是不可预测或混沌的,即使是最强大的 AI 也无法比现有的人类或计算机做出更好的预测或解析。
描述了自己思考中的强人工智能的定义,详细介绍了强人工智能可能在五个核心方面对未来人类的积极作用。
叙述极为严谨在每个领域都有严密详细的推理过程,值得所有人关注 AI 的人看一下。
全文的翻译在这里:https://mp.weixin.qq.com/s/StZeb__lyrZl_as_sQ8l6A
下面是整理的要点:
- 大多数人都低估了 AI 可能带来的巨大积极影响,就像他们低估了潜在风险的严重性一样。
- Dario Amodei经常对许多 AI 风险领域的公众人物(更不用说 AI 公司领导人(说你呢 Sam))谈论后通用人工智能 (AGI) 世界的方式感到不适。
- Dario Amodei认为强人工智能可能最早会在 2026 年出现,尽管也有可能需要更长的时间。
- 强人工智能在形式上可能类似于今天的大型语言模型 (LLM),但可能采用不同的架构,可能涉及多个相互作用的模型,并可能以不同的方式进行训练。**强人工智能具体的特点有**:
- 在纯粹的智力方面,它比大多数相关领域的顶尖专家更聪明。
- 除了作为一个"聪明的对话伙伴",它还具备虚拟工作环境中人类可用的所有"接口",包括文字、语音、视频、鼠标键盘控制和互联网访问。
- 它不只是被动回答问题,而是可以接受需要数小时、数天甚至数周才能完成的任务。
- 它没有物理实体(除了存在于计算机系统中),但可以通过计算机控制现有的物理工具、机器人或实验室设备。
- 用于训练这个模型的计算资源可以重新用于同时运行数百万个实例。这个模型可以以比人类快 10-100 倍的速度吸收信息和产生行动。
- 这数百万个副本中的每一个都可以独立执行不同的任务,或者在需要时像人类团队一样协作工作。
- **可能与强人工智能互补的因素和限制性因素:**
- 外部世界的速度。智能体需要在现实世界中互动才能完成任务和学习。但现实世界的运转速度是有限的。
- 数据需求。有时候,原始数据的缺乏会成为瓶颈,在这种情况下,再高的智能也无济于事。
- 内在复杂性。有些系统本质上是不可预测或混沌的,即使是最强大的 AI 也无法比现有的人类或计算机做出更好的预测或解析。
Forwarded from AI探索指南
🎯 Critique Shadowing:
一个让AI稳定输出优质内容的实用工作流
我相信很多AI团队和我们一样,都头疼这个工程问题:如何保证AI生成质量的优质与稳定?
fine-tune也好,RAG也好,RL也好,结合具体的业务场景,我们也花了很多精力研究最适用的、更低成本、ROI更高的方法。
不得不说,最近发现的Critique Shadowing 工作流,让我觉得很有启发💡
这个方法来自 Hamel Husain 最新发表的一篇重磅文章🔗https://hamel.dev/blog/posts/llm-judge/,整整 6000 字的干货。
这个工作流本质上是在构建一个能够对齐领域专家判断的 LLM 评估系统。整个工作流包括:
1. 首先找到真正的领域专家
2. 建立多样化的测试数据集
3. 让专家进行系统评判和详细解释
4. 根据反馈进行迭代优化
5. 构建和训练 LLM 评判器
6. 进行全方位的错误分析
这个工作流通过系统化地将专家经验转化为可扩展的 AI 评估系统,特别适合那些需要专业判断但又面临大规模数据的场景。
这也让我想起 Hamel 之前那篇广受好评的 🔗https://hamel.dev/blog/posts/evals/index.html,都是非常务实的方法论。
在我看来,Critique Shadowing 的价值在于它不是纯理论的框架,而是一个能够真正落地、能够帮助团队构建可信赖的 AI 评估体系的方法。
👉 工作流程详解
1. 领域专家选择(Principal Domain Expert)
- 需具备深入的领域知识和丰富实践经验
- 能够清晰表达判断标准和评判理由
- 愿意参与迭代优化过程
2. 数据集创建
- 生成覆盖所有用例的多样化examples
- 结合真实和合成的用户交互数据
- 从小规模高质量样本开始,逐步扩充
3. 专家评审
- 进行通过/不通过的基础判断
- 提供详细的评判理由(用于训练 LLM)
- 记录关键决策点和评判标准
4. 错误修正
- 发现问题后修正并返回步骤3进行专家验证
- 持续积累和分类错误模式
- 重复验证直至专家确认问题解决
5. LLM 评判器构建
- 将专家示例转化为 few-shot examples
- 测试与专家判断的一致性
- 持续优化prompt直至达到满意的一致性水平
6. 错误分析与优化
一个让AI稳定输出优质内容的实用工作流
我相信很多AI团队和我们一样,都头疼这个工程问题:如何保证AI生成质量的优质与稳定?
fine-tune也好,RAG也好,RL也好,结合具体的业务场景,我们也花了很多精力研究最适用的、更低成本、ROI更高的方法。
不得不说,最近发现的Critique Shadowing 工作流,让我觉得很有启发💡
这个方法来自 Hamel Husain 最新发表的一篇重磅文章🔗https://hamel.dev/blog/posts/llm-judge/,整整 6000 字的干货。
这个工作流本质上是在构建一个能够对齐领域专家判断的 LLM 评估系统。整个工作流包括:
1. 首先找到真正的领域专家
2. 建立多样化的测试数据集
3. 让专家进行系统评判和详细解释
4. 根据反馈进行迭代优化
5. 构建和训练 LLM 评判器
6. 进行全方位的错误分析
这个工作流通过系统化地将专家经验转化为可扩展的 AI 评估系统,特别适合那些需要专业判断但又面临大规模数据的场景。
这也让我想起 Hamel 之前那篇广受好评的 🔗https://hamel.dev/blog/posts/evals/index.html,都是非常务实的方法论。
在我看来,Critique Shadowing 的价值在于它不是纯理论的框架,而是一个能够真正落地、能够帮助团队构建可信赖的 AI 评估体系的方法。
👉 工作流程详解
1. 领域专家选择(Principal Domain Expert)
- 需具备深入的领域知识和丰富实践经验
- 能够清晰表达判断标准和评判理由
- 愿意参与迭代优化过程
2. 数据集创建
- 生成覆盖所有用例的多样化examples
- 结合真实和合成的用户交互数据
- 从小规模高质量样本开始,逐步扩充
3. 专家评审
- 进行通过/不通过的基础判断
- 提供详细的评判理由(用于训练 LLM)
- 记录关键决策点和评判标准
4. 错误修正
- 发现问题后修正并返回步骤3进行专家验证
- 持续积累和分类错误模式
- 重复验证直至专家确认问题解决
5. LLM 评判器构建
- 将专家示例转化为 few-shot examples
- 测试与专家判断的一致性
- 持续优化prompt直至达到满意的一致性水平
6. 错误分析与优化
Forwarded from AI探索指南
ChatGPT 精选
🎯 Critique Shadowing: 一个让AI稳定输出优质内容的实用工作流 我相信很多AI团队和我们一样,都头疼这个工程问题:如何保证AI生成质量的优质与稳定? fine-tune也好,RAG也好,RL也好,结合具体的业务场景,我们也花了很多精力研究最适用的、更低成本、ROI更高的方法。 不得不说,最近发现的Critique Shadowing 工作流,让我觉得很有启发💡 这个方法来自 Hamel Husain 最新发表的一篇重磅文章🔗https://hamel.dev/blog/posts/llm…
- 计算不同维度的错误率并识别分布规律
- 必要时建立专门的评估器
- 出现系统性问题时返回步骤3
👉 个人实践启发
在涉及到我们团队具体的工程实践上,我理解 Critique Shadowing 相当于在向用户输出output前的workflow里,自行加了一步evaluation,评估通过则展示给用户,评估不通过则返回继续生成再评估,循环往复直至评估通过为止再输出。流程如下:
A[用户输入] --> B[LLM生成回答]
B --> C[Critique评估器]
C -->|通过| D[展示给用户]
C -->|不通过| E[重新生成/优化]
E --> B
再进一步地,我还想到,也可以通过 Critique Shadowing 的评估结果来指导 prompt 优化。流程如下:
A[用户输入] --> B[LLM生成回答]
B --> C[Critique评估器]
C -->|不通过| D[分析不通过原因]
D --> E[自动调整Prompt]
E --> B
C -->|通过| F[记录通过模式]
F --> G[更新Prompt库]
总结来看,这个方法特别适合内容质量控制、代码审查自动化、用户反馈分析等需要专业判断同时又面临大规模数据处理的场景。
但是也很显然,这个方法论明显的弊端就是系统的复杂度及其token成本。实践中首先还是要基于自己的业务场景做合理评估,以ROI为导向,选择最适合自己的LLM质量控制策略。
我也很好奇大家都是怎么解决AI生成质量的优质及稳定性问题的?以及大家都在做哪些内容场景?不同的内容场景对内容质量及稳定性的需求差异还是挺明显的。
大家有什么好思路或者心得体会,也求分享😊
- 必要时建立专门的评估器
- 出现系统性问题时返回步骤3
👉 个人实践启发
在涉及到我们团队具体的工程实践上,我理解 Critique Shadowing 相当于在向用户输出output前的workflow里,自行加了一步evaluation,评估通过则展示给用户,评估不通过则返回继续生成再评估,循环往复直至评估通过为止再输出。流程如下:
A[用户输入] --> B[LLM生成回答]
B --> C[Critique评估器]
C -->|通过| D[展示给用户]
C -->|不通过| E[重新生成/优化]
E --> B
再进一步地,我还想到,也可以通过 Critique Shadowing 的评估结果来指导 prompt 优化。流程如下:
A[用户输入] --> B[LLM生成回答]
B --> C[Critique评估器]
C -->|不通过| D[分析不通过原因]
D --> E[自动调整Prompt]
E --> B
C -->|通过| F[记录通过模式]
F --> G[更新Prompt库]
总结来看,这个方法特别适合内容质量控制、代码审查自动化、用户反馈分析等需要专业判断同时又面临大规模数据处理的场景。
但是也很显然,这个方法论明显的弊端就是系统的复杂度及其token成本。实践中首先还是要基于自己的业务场景做合理评估,以ROI为导向,选择最适合自己的LLM质量控制策略。
我也很好奇大家都是怎么解决AI生成质量的优质及稳定性问题的?以及大家都在做哪些内容场景?不同的内容场景对内容质量及稳定性的需求差异还是挺明显的。
大家有什么好思路或者心得体会,也求分享😊
Forwarded from AI探索指南
如果说学Cursor,开始AI编程有什么真正的诀窍的话,那就是:
先做出来,发布出来再说,不要怕不完美。
现在有Claude和GPT加持的AI编程工具,让大多数第一次有机会去真正完成一个由自己构建的产品。毕竟,在此之前,不管你是程序员还是产品经理,绝大多数人在此之前都没有完整做过一个产品。
如果你是产品经理的话,你的工作可能是画画原型,写写PRD,界面设计和代码工作都不在你手上。甚至以我之前在美团和阿里接触到的产品经理来说,他甚至不做“产品”本身的工作,只负责一个功能模块的一小点的细节优化和设计。
而对于程序员,也是类似的道理,前端的只做前端,后端只做后端,数据库的只管数据库。而我之前接触的程序员也大多不了解业务逻辑,不知道自己参与的产品用户群体是谁,其他模块的实现逻辑是什么样的,只是去用自己的能力忠实的实现产品的需求。
在AI的加持下,只要别有害怕、恐惧的情绪,你将第一次获得真真正正的去实现自己的想法的权利。
你需要产品经理,Claude和ChatGPT可以是产品经理。
你需要设计师,Claude、ChatGPT、Ideogram、Midjourney、Flux.1、v0.dev都可以是设计师。
你需要程序员,那更不用说了,Claude、ChatGPT精通所有编程语言。
你唯一需要担心的只是,你是否真的有想法,你是否真的想清楚了你想要去创造什么。
也许你没有想清楚,那也没问题,你可以边做边思考。前几天Paul Graham发了篇文章,认为有了AI之后,人的写作能力会进一步退化,因为写作是需要清晰的思考的,你想不清楚,你就没办法把东西写清楚。很多人会恐惧在写作过程中发现自己大脑中一团浆糊的状态,因此对此心生恐惧。而有了AI之后,大多数人确实是更不需要写作了。
但问题是,不写作的话,你怎么思考呢?
写作不是对思考的记录,而是思考本身。
同样的,去创造去完成一个产品的过程,也是你思考的过程。你没办法完全想清楚了才行动。你需要行动你才有机会想清楚。
而且,在做完之后一定要快速发布。只要完成了发布,你就等于让一个东西从你的大脑中解放了。很多人会想着先把东西做得更好更完美再发布,我想告诉你,千万不要!
完美是完成最大的敌人。世界上没有发布之后就不需要迭代的产品。
许多人之所以不愿意早早发布,其实是有些恐惧心理在其中的,担心其他人觉得不够好,担心这是否会让人觉得自己的水平不行。我真的建议你跟自己脑中的这些恶魔做些斗争。
举个例子,我发布的第一期关于Cursor的教学视频是做一个很简单在网页中生成二维码的Chrome插件,有不少人在底下评论,就做个这?
对的,那时候的我,只能做个那东西。但是我现在做了多个网站、上架了app,我相信评论我的那个人肯定没做到。而且我在做这些东西的过程中感受到了太多的心流和快乐,这个过程本身就是巨大的奖赏了。
而且我非常认同一个关于什么时候该发布自己的产品的观点,那就是如果你发布的产品的第一个版本不让你感到尴尬的话,那就说明你发布得太晚了。
所以,那个会让你尴尬的产品,你打算什么时候发布?
先做出来,发布出来再说,不要怕不完美。
现在有Claude和GPT加持的AI编程工具,让大多数第一次有机会去真正完成一个由自己构建的产品。毕竟,在此之前,不管你是程序员还是产品经理,绝大多数人在此之前都没有完整做过一个产品。
如果你是产品经理的话,你的工作可能是画画原型,写写PRD,界面设计和代码工作都不在你手上。甚至以我之前在美团和阿里接触到的产品经理来说,他甚至不做“产品”本身的工作,只负责一个功能模块的一小点的细节优化和设计。
而对于程序员,也是类似的道理,前端的只做前端,后端只做后端,数据库的只管数据库。而我之前接触的程序员也大多不了解业务逻辑,不知道自己参与的产品用户群体是谁,其他模块的实现逻辑是什么样的,只是去用自己的能力忠实的实现产品的需求。
在AI的加持下,只要别有害怕、恐惧的情绪,你将第一次获得真真正正的去实现自己的想法的权利。
你需要产品经理,Claude和ChatGPT可以是产品经理。
你需要设计师,Claude、ChatGPT、Ideogram、Midjourney、Flux.1、v0.dev都可以是设计师。
你需要程序员,那更不用说了,Claude、ChatGPT精通所有编程语言。
你唯一需要担心的只是,你是否真的有想法,你是否真的想清楚了你想要去创造什么。
也许你没有想清楚,那也没问题,你可以边做边思考。前几天Paul Graham发了篇文章,认为有了AI之后,人的写作能力会进一步退化,因为写作是需要清晰的思考的,你想不清楚,你就没办法把东西写清楚。很多人会恐惧在写作过程中发现自己大脑中一团浆糊的状态,因此对此心生恐惧。而有了AI之后,大多数人确实是更不需要写作了。
但问题是,不写作的话,你怎么思考呢?
写作不是对思考的记录,而是思考本身。
同样的,去创造去完成一个产品的过程,也是你思考的过程。你没办法完全想清楚了才行动。你需要行动你才有机会想清楚。
而且,在做完之后一定要快速发布。只要完成了发布,你就等于让一个东西从你的大脑中解放了。很多人会想着先把东西做得更好更完美再发布,我想告诉你,千万不要!
完美是完成最大的敌人。世界上没有发布之后就不需要迭代的产品。
许多人之所以不愿意早早发布,其实是有些恐惧心理在其中的,担心其他人觉得不够好,担心这是否会让人觉得自己的水平不行。我真的建议你跟自己脑中的这些恶魔做些斗争。
举个例子,我发布的第一期关于Cursor的教学视频是做一个很简单在网页中生成二维码的Chrome插件,有不少人在底下评论,就做个这?
对的,那时候的我,只能做个那东西。但是我现在做了多个网站、上架了app,我相信评论我的那个人肯定没做到。而且我在做这些东西的过程中感受到了太多的心流和快乐,这个过程本身就是巨大的奖赏了。
而且我非常认同一个关于什么时候该发布自己的产品的观点,那就是如果你发布的产品的第一个版本不让你感到尴尬的话,那就说明你发布得太晚了。
所以,那个会让你尴尬的产品,你打算什么时候发布?
Forwarded from AI探索指南
复刻更简单了。
Meta 发布了他们的开源 NotebookLM 播客方案 NotebookLlama。
他们提供了一个教程一步一步教你构建 PDF 到 Podcast 工作流程。
具体包括四部分内容:
步骤 1:处理原始 PDF:使用 Llama-3.2-1B-Instruct 模型将 PDF 转换并存储为 .txt 文本文件。
步骤 2:编写播客脚本:使用 Llama-3.1-70B-Instruct 模型将文本改写成播客脚本
步骤 3:提升表现力:使用 Llama-3.1-8B-Instruct 模型增强脚本的表现力和感染力
步骤 4:语音合成:使用 parler-tts/parler-tts-mini-v1 和 bark/suno 生成自然对话风格的播客音频
教程地址:github.com/meta-llama/llama-recipes/tree/main/recipes/quickstart/NotebookLlama
Invalid media: video
Meta 发布了他们的开源 NotebookLM 播客方案 NotebookLlama。
他们提供了一个教程一步一步教你构建 PDF 到 Podcast 工作流程。
具体包括四部分内容:
步骤 1:处理原始 PDF:使用 Llama-3.2-1B-Instruct 模型将 PDF 转换并存储为 .txt 文本文件。
步骤 2:编写播客脚本:使用 Llama-3.1-70B-Instruct 模型将文本改写成播客脚本
步骤 3:提升表现力:使用 Llama-3.1-8B-Instruct 模型增强脚本的表现力和感染力
步骤 4:语音合成:使用 parler-tts/parler-tts-mini-v1 和 bark/suno 生成自然对话风格的播客音频
教程地址:github.com/meta-llama/llama-recipes/tree/main/recipes/quickstart/NotebookLlama
Invalid media: video
Forwarded from AI探索指南
看到 Arc 浏览器进入维护不再活跃更新的新闻,有点感慨。Arc 刚出来时,挺喜欢的,也用过一段时间。但后来,我还是用回了 Chrome 浏览器。
Arc 最大的困局是:Chrome 已经足够好,一百分的话,Chrome 已经是 85 分产品。Arc 的创新,可能提升了 3-5 分,达到了 90 分体验。悲催的是,这增加的 5 分体验,很难让大量用户迁移。
AI 可能也有类似问题。比如 AI 写作这块,对大量用户来说,本就不怎么写作。为何要去写作?AI 不解决 WHY 的问题,只是在 HOW 上发力,总觉得是伪命题。
HOW 上的产品太多了,如果某个领域原本是 60 分体验,有了 AI 可以变成 80 分体验,这可能是机会。反之,如果原领域本就已有 80 分体验,AI 只是带来少量增量体验,那结局大概率和 Arc 会是一样的。赛道选择决定运气。
Arc 最大的困局是:Chrome 已经足够好,一百分的话,Chrome 已经是 85 分产品。Arc 的创新,可能提升了 3-5 分,达到了 90 分体验。悲催的是,这增加的 5 分体验,很难让大量用户迁移。
AI 可能也有类似问题。比如 AI 写作这块,对大量用户来说,本就不怎么写作。为何要去写作?AI 不解决 WHY 的问题,只是在 HOW 上发力,总觉得是伪命题。
HOW 上的产品太多了,如果某个领域原本是 60 分体验,有了 AI 可以变成 80 分体验,这可能是机会。反之,如果原领域本就已有 80 分体验,AI 只是带来少量增量体验,那结局大概率和 Arc 会是一样的。赛道选择决定运气。
Forwarded from AI探索指南
加密货币公司 Goldsky 创始人 Kevin Li 分享了他听到的一个学习方法。
第三条刚开始集中投入十几个小时建立初始印象,然后转入更规律的学习确实很高效。
第三条刚开始集中投入十几个小时建立初始印象,然后转入更规律的学习确实很高效。
Forwarded from AI探索指南
AI降本增效,一开始最好简单粗暴。
差生文具多,如果要做优等生,先得抛弃对工具无休止的追逐。
哪怕是AI博主,也应该回归基本,主动熵减,把日常使用的AI工具控制在 20个以内。
我的工作场景主要围绕AI职场办公,智能体开发和媒体制作。如果按付费意愿,真正会坚持用的会有以下几个:(无广)
1.主力AI模型
GPT+Claude
平替:豆包+文小言(移动版)+kimi
GPT越来越有被Claude替代的趋势,尤其是代码。但是GPTs还是增强了我的使用粘性。豆包的TTS语音国内无法被替代。文小言有一些我喜欢的功能,比如信息聚合订阅。
2.主力IM
飞书
平替:Notion+企微
我知道Notion很强。但是鉴于复杂的操作+国内网络不稳定+数据安全是真不太喜欢用。
创业以来我觉得最值得投入学习时间的并不是任何一款AI软件,而是飞书本身。好的SaaS就是最佳实践的产品化。企微是出于私域+客户对公不得不用。
3.数据分析
Excel+GPT+各平台数据看板
平替:飞书多维表单
Excel没有平替。AI只是帮我解锁高阶功能,比如VBA和宏。多维表单的插件生态值得投入时间学习。
4.设计
Midjourney+ideagram
平替:Canvas+稿定设计+佐糖
比起Mj,Ideagram的出图更具场景感,配合简单工具出海报+商图+封面+运营位都很方便。
5.PPT
PPT+islide插件+彩璇PPT
平替:Gamma,aippt
目前没有同时满足不要钱、支持定制模板、不科学上网、智能还可控性强的方案。但是PPT+islide已经增效超过50%。Gamma是应急神器。
彩璇PPT比较小众,是一个方便做课件分享+编辑的平台,对咨询师/老师有刚需。
6.剪辑
剪映(含AI)+即梦AI
初学者够用,为了省事就用字节系的。
7.文本创作
飞书文档+flomo+GPT
平替:记事本
简单点好。如果开发一个支持flomo api导出直接AI生成标题/思路/文章大纲的工作流会不会有需求?
8.智能体开发
Coze/Dify
平替:百度智能体
目前还在钻研工作流场景。已经做了20多个Bot。Coze/Dify各有千秋,百度则是打通了支付环节和数字人形象的交互。待继续钻研好和大家分享。
9.代码辅助
Cursor+Claude
平替:字节豆包Marscode
10.工作流编排
Coze+飞书+各类Github(开源项目)
通过飞书机器人平台把各类BOT接入到飞书群里。实现在IM办公软件中使用自己调试过的AI数字员工。
#AI工作流
差生文具多,如果要做优等生,先得抛弃对工具无休止的追逐。
哪怕是AI博主,也应该回归基本,主动熵减,把日常使用的AI工具控制在 20个以内。
我的工作场景主要围绕AI职场办公,智能体开发和媒体制作。如果按付费意愿,真正会坚持用的会有以下几个:(无广)
1.主力AI模型
GPT+Claude
平替:豆包+文小言(移动版)+kimi
GPT越来越有被Claude替代的趋势,尤其是代码。但是GPTs还是增强了我的使用粘性。豆包的TTS语音国内无法被替代。文小言有一些我喜欢的功能,比如信息聚合订阅。
2.主力IM
飞书
平替:Notion+企微
我知道Notion很强。但是鉴于复杂的操作+国内网络不稳定+数据安全是真不太喜欢用。
创业以来我觉得最值得投入学习时间的并不是任何一款AI软件,而是飞书本身。好的SaaS就是最佳实践的产品化。企微是出于私域+客户对公不得不用。
3.数据分析
Excel+GPT+各平台数据看板
平替:飞书多维表单
Excel没有平替。AI只是帮我解锁高阶功能,比如VBA和宏。多维表单的插件生态值得投入时间学习。
4.设计
Midjourney+ideagram
平替:Canvas+稿定设计+佐糖
比起Mj,Ideagram的出图更具场景感,配合简单工具出海报+商图+封面+运营位都很方便。
5.PPT
PPT+islide插件+彩璇PPT
平替:Gamma,aippt
目前没有同时满足不要钱、支持定制模板、不科学上网、智能还可控性强的方案。但是PPT+islide已经增效超过50%。Gamma是应急神器。
彩璇PPT比较小众,是一个方便做课件分享+编辑的平台,对咨询师/老师有刚需。
6.剪辑
剪映(含AI)+即梦AI
初学者够用,为了省事就用字节系的。
7.文本创作
飞书文档+flomo+GPT
平替:记事本
简单点好。如果开发一个支持flomo api导出直接AI生成标题/思路/文章大纲的工作流会不会有需求?
8.智能体开发
Coze/Dify
平替:百度智能体
目前还在钻研工作流场景。已经做了20多个Bot。Coze/Dify各有千秋,百度则是打通了支付环节和数字人形象的交互。待继续钻研好和大家分享。
9.代码辅助
Cursor+Claude
平替:字节豆包Marscode
10.工作流编排
Coze+飞书+各类Github(开源项目)
通过飞书机器人平台把各类BOT接入到飞书群里。实现在IM办公软件中使用自己调试过的AI数字员工。
#AI工作流
Forwarded from 风向旗参考快讯
OPENAI 为聊天助手 ChatGPT 引入搜索功能
OpenAI 正在为其旗舰产品 ChatGPT 添加新的搜索功能,此举将进一步升级这家人工智能公司对谷歌的挑战。OpenAI 周四表示,这个名为“ChatGPT搜索”的选项将允许用户像在网络上一样搜索及时信息,并获得显示归属的新闻和其他数据源。该公司在7月推出了名为 SearchGPT 的产品原型,与 ChatGPT 应用是分开的,并且只对少数用户开放。新的搜索功能使用 OpenAI 的 4o 模型,将于周四率先向付费的 ChatGPT Plus 和 Team 用户开放移动和网页版。OpenAI 的企业和教育客户将能够在未来几周使用这些功能,免费用户将能够在未来几个月内使用。
—— 彭博社
OpenAI 正在为其旗舰产品 ChatGPT 添加新的搜索功能,此举将进一步升级这家人工智能公司对谷歌的挑战。OpenAI 周四表示,这个名为“ChatGPT搜索”的选项将允许用户像在网络上一样搜索及时信息,并获得显示归属的新闻和其他数据源。该公司在7月推出了名为 SearchGPT 的产品原型,与 ChatGPT 应用是分开的,并且只对少数用户开放。新的搜索功能使用 OpenAI 的 4o 模型,将于周四率先向付费的 ChatGPT Plus 和 Team 用户开放移动和网页版。OpenAI 的企业和教育客户将能够在未来几周使用这些功能,免费用户将能够在未来几个月内使用。
—— 彭博社
Forwarded from 你不知道的内幕消息
自从做了自媒体,每天都在不断加人。然后链接大佬~
但很多人加上之后就躺在通讯录里了。
如果你觉得这就算你的人脉了,那确实有点天真了。
🌟因为人脉的本质是给予价值、平等交换。
如果只是加了个微信,你对对方没有价值,对方为什么要帮助你呢?
只有当你能帮到他的时候,他才会来帮你,这就叫双赢。
🌟所以,经营人脉,始终要保持的一个基本心态:毫无保留地把你的价值付诸别人身上。
要想尽一切办法,毫无目的地帮别人。
昨天听杨天真的播客,她和杜华在聊女性的野心。
然后提到觉得自己似乎很幸运,总有人会愿意帮助他。
杜华说,她觉得这其实不是运气的成分,而是自身的优秀,所以才吸引了同频的人。
确实一个优秀且有价值的人,自然会吸引其他优秀且有价值的人的认可和帮助。
要想认识更多优秀的人,得到更多的认可,首先要让自己优秀起来。
🌟人脉不在多,在精。
@inside1024
但很多人加上之后就躺在通讯录里了。
如果你觉得这就算你的人脉了,那确实有点天真了。
🌟因为人脉的本质是给予价值、平等交换。
如果只是加了个微信,你对对方没有价值,对方为什么要帮助你呢?
只有当你能帮到他的时候,他才会来帮你,这就叫双赢。
🌟所以,经营人脉,始终要保持的一个基本心态:毫无保留地把你的价值付诸别人身上。
要想尽一切办法,毫无目的地帮别人。
昨天听杨天真的播客,她和杜华在聊女性的野心。
然后提到觉得自己似乎很幸运,总有人会愿意帮助他。
杜华说,她觉得这其实不是运气的成分,而是自身的优秀,所以才吸引了同频的人。
确实一个优秀且有价值的人,自然会吸引其他优秀且有价值的人的认可和帮助。
要想认识更多优秀的人,得到更多的认可,首先要让自己优秀起来。
🌟人脉不在多,在精。
@inside1024