DPS Build
720 subscribers
120 photos
3 videos
10 files
462 links
AI, coding, data science and startups
Download Telegram
分布式跑大语言模型,这个点子很赞啊,每个人跑一点,所有联网的机器拼起来就能跑非常大的模型了。

https://petals.ml/
一个可以在本地运行的 ChatGPT 客户端:

1. 界面与 ChatGPT 的 UI 类似
2. 所有会话记录保存在本地
3. 支持 markdown / 代码高亮
4. 需要添加自己的 API key

https://github.com/mckaywrigley/chatbot-ui
按照 OpenAI 的建议,如果 embedding 的 doc size 不超过两万条,可以直接把 embedding 放在内存里使用;超过两万条的话,建议使用这种专用的 vector db。

https://twitter.com/nash_su/status/1638042474689220609
👍1
Zapier 发布了基于 ChatGPT API 的新接口,用户可以利用自然语言直接写指令(prompts),等于增加了一个无限可能的接口。

https://twitter.com/nonmayorpete/status/1638640617122320385
围绕着 ChatGPT API 写了两周代码,记录一些想法:

1. ChatGPT API 自 gpt-turbo-3.5 发布以来,做了大大的简化。只需要在请求里写两个参数:model 和 messages,其他参数都被隐藏了。

2. 需要调整输出的话,只需要在 messages 写 prompts,通过自然语言就能控制模型的输出。大大降低了开发难度,又给输出添加了无限可能

3. 不仅 API 的交互得以大大简化,围绕着 ChatGPT API 开发的话,也可以大大简化整个 NLP 项目的开发。它不一定能取代所有的本地训练,但是合理利用的话,可以大大加快本地的训练。

https://letters.acacess.com/chapgpt_api/
模块化笔记本电脑 Framework 发布新的 Framework 16 系列,除了延续之前的设计以外,还增加了显卡模块和几乎可以无限拓展的信号输入模块:

it also brings in two new module ecosystems: a fully reconfigurable input deck and modular, upgradeable graphics.

https://frame.work/fr/fr/blog/introducing-the-framework-laptop-16
但是对公司而言,让自己跑得更快远比让竞争对手跑得慢一点更重要。所以大部分情况下保密措施应该是以不伤害效率为前提的。对用户数据的保密除外,但是保护用户数据的措施通常不会影响到大部分人的工作效率。

理论上这些都可以被滥用或者误用,但是滥用往往缺乏动机,误用可以从设计上避免。一个大原则是风险可控或可逆的事情默认是没有流程的,只有实际发生了问题,证明必要时才会靠引入流程来解决。有了流程就需要有人审批有人执行,如果它解决的问题不常发生、有其他方案或者产生的危害不如流程带来的成本,那么设立流程就是不理性的。

有的比较卷的团队为了控制代码的复杂度,还把自己 code base 的行数上限放到了测试里。如果有人增加了 10 行代码,就需要重构其他地方的代码来省出 10 行,或者提供一个好的理由来提高上限。

除了日常的 code review 外,每个新员工会需要学习公司的代码规范,并通过工作中会用到的每个语言的可读性 review。方式是准备一个百行以上的 changelist,提交给一个有资格做 readability review 的工程师,通过之后才有权限提交用在生产环境的代码。

所以 Google 把版本管理完全倒了过来,每个项目/组件都只要维护一个最新版,所有的改动最重要的原则是不能破坏任何测试。所以如果有人在一个共享组件里做了向前不兼容的改动,就会需要在同一个 changelist 里把整个代码库里所有调用到这个接口的地方改过来。

GWS 每周会做一次 binary push,也就是二进制文件的发布。流程是每周一早上负责发布的工程师从当前的代码做一个发布分支编译出一个二进制文件,交给 QA 开始测试,发现 bug 就把修复 cherry pick 到发布分支。

https://1byte.io/google-large-scale-dev/
👍1
微软发布了一整条基于 LLM 的开发链:

Semantic Kernel (SK) is a lightweight SDK enabling integration of AI Large Language Models (LLMs) with conventional programming languages. The SK extensible programming model combines natural language semantic functions, traditional code native functions, and embeddings-based memory unlocking new potential and adding value to applications with AI.

https://github.com/microsoft/semantic-kernel