Levix 空间站
921 subscribers
219 photos
11 videos
20 files
1.38K links
主要分享前端、AI 以及前沿科技资讯。

🚫 禁止人身攻击:请在评论区保持尊重和友好,避免不当言论和负面互动。

🚫 禁止违规内容:请勿发布任何黄赌毒、宗教极端、政治敏感或其他违反社区规定的内容。
主要分享前端以及业界科技资讯。

🚫 禁止广告与刷屏:为了维护良好的交流环境,请不要进行任何形式的广告推广、黑产活动、刷屏行为及发布不适内容。

🔒 保护个人信息:请注意个人隐私和网络安全,不要在评论区泄露个人信息或点击不明链接。
Download Telegram
😢2
WebVM 是一个运行在浏览器中的 Linux 虚拟机,完全在客户端使用 HTML5 和 WebAssembly 进行操作。它旨在与 Linux 应用程序二进制接口(ABI)兼容,能够运行未修改的 Debian 发行版,包括许多原生开发工具链。

#Tools

https://github.com/leaningtech/webvm
👍3
GitHub 存在一个设计上的漏洞,允许用户访问已删除的分支、仓库甚至私有仓库的数据,并且这些数据将永久存在。这一问题被称为 Cross Fork Object Reference (CFOR) 漏洞,它发生在一个分支能够访问另一个分支的敏感数据时,包括私有和已删除的分支。用户可以通过提交哈希值直接访问他们本不应看到的提交数据。

例如,即使用户删除了自己的分支,他们提交的代码仍然可以通过原始仓库访问。此外,如果公共上游仓库被删除,GitHub 会将根节点角色重新分配给下游分支,但上游仓库的所有提交仍然存在,并通过任何分支访问。

通过 GitHub 的 API 和事件日志,即使仓库被删除,数据仍然可以被检索。GitHub 的政策文档也明确说明了这种设计。然而,这与用户对私有和公共仓库作为安全边界的普遍看法不符,用户通常认为私有仓库中的数据不会被公开访问。

为了安全地补救在公共 GitHub 仓库中泄露的密钥,唯一的方法是进行密钥轮换。同时,随着秘密扫描技术的发展,我们可能需要更加谨慎地处理不属于我们自己的秘密警报。

#Github #安全

https://trufflesecurity.com/blog/anyone-can-access-deleted-and-private-repo-data-github
不要安装 Node v22.5.0 版本。

Node.js 版本 v22.5.0 在不同情况下出现崩溃和挂起,主要问题表现在 npm 安装过程中挂起或 Node 运行时崩溃。

复现步骤:

1. 克隆 core-js 仓库;

2. 执行 npm i

3. 安装依赖并运行 npm test ,则 Node 会崩溃,并显示错误 FATAL ERROR: v8::Object::GetCreationContextChecked No creation context available

RedYetiDev 已将导致该问题的 PR 进行 Revert,并建议升级至 22.5.1 版本或其他 22.x 的版本。

#Node #Bug

https://github.com/nodejs/node/pull/53934
Chirr App 可以将你的文本分割成适合推特(Twitter)发布的小块,并自动将其发布为推特线程,用户无需手动操作。

终于不用再手动分割了🤡

#Tools

https://getchirrapp.com/
SearchGPT 是 OpenAI 推出的 AI 搜索功能原型,旨在通过结合 AI 模型和实时网络信息,提供更快速、更准确的搜索体验。它强调与出版商和创作者的合作,以构建一个繁荣的生态系统,并计划将优秀功能整合到 ChatGPT 中。同时,SearchGPT 为出版商提供了管理其搜索呈现的途径,并独立于 AI 模型训练之外。

#AI #OpenAI

https://openai.com/index/searchgpt-prototype/
世界是个巨大的妓院,每个人都在努力赚钱给自己赎身,而不是为了成为头牌。

https://www.bmpi.dev/weeklies/20240721/
👍2
现代原生 JavaScript 中内存高效的 DOM 操作模式

1. 尽可能修改现有元素而不是创建新元素。

2. 使用高效的方法,如 textContent、insertAdjacentHTML 和 appendChild。

3. 谨慎管理引用,利用 WeakMap 和 WeakRef 避免内存泄漏。

4. 正确清理事件监听器,以防止不必要的开销。

5. 考虑使用事件委托等技术,以提高事件处理的效率。

6. 使用 AbortController 等工具,以便更轻松地管理多个事件监听器。

7. 采用 DocumentFragments 进行批量插入,并理解虚拟 DOM 等概念,以实施更广泛的优化策略。

#前端 #性能 #性能优化

https://frontendmasters.com/blog/patterns-for-memory-efficient-dom-manipulation/
自 OpenAI 的 ChatGPT 发布以来,AI 驱动的浏览器扩展迅速增多。这些扩展功能多样,包括网页和邮件摘要、辅助写作、甚至将纯文本转换为可执行代码。然而,它们也带来了各种安全风险,从简单的恶意软件到知名公司的 AI 实验。

恶意软件伪装

一些 AI 浏览器扩展实际上是恶意软件,例如 2023 年 3 月,一个名为 “Quick access to Chat GPT” 的 Chrome 扩展被发现劫持用户 Facebook 账户并窃取所有存储在浏览器中的 cookie,包括安全和会话令牌。尽管 Google 迅速下架了该扩展,但类似的问题仍在持续出现。

合法 AI 扩展的安全问题

即使是合法的 AI 浏览器扩展,也存在潜在的安全问题。例如,用户与生成性 AI 工具共享的敏感数据可能被纳入其训练数据,被其他用户查看。此外,AI 公司本身也可能遭受数据泄露,如 OpenAI 在 2023 年 3 月报告的一个 bug,允许用户查看其他活跃用户的聊天历史标题。

版权、抄袭和法律问题

大型语言模型(LLMs)经常生成与特定人类来源明显相似的图片、文本和代码,这可能构成版权侵犯。同时,LLM 生成的代码质量参差不齐,常常存在安全漏洞。

提示注入攻击

文章还讨论了一种新兴的威胁 —— 通过链接的 AI 工具窃取数据的提示注入攻击。这种攻击利用 LLMs 基于输入做出自动化决策的特性,如果输入是恶意的,LLMs 可能被诱骗执行任何操作。

企业 AI 政策

鉴于 AI 技术的快速发展,公司需要制定明确的 AI 政策,指导员工如何使用这些工具。建议包括教育员工关于这些工具的安全风险,实行白名单制度,提高 IT 团队对公司浏览器扩展使用的可见性,并实施零信任访问策略。

结论

AI 浏览器扩展虽然功能强大,但安全风险不容忽视。公司和个人都需要采取适当的措施,以确保在使用这些工具的同时,保护数据安全和隐私。

#AI #安全

https://blog.1password.com/ai-browser-extension-nightmare/
Edward Zitron 在其文章中深入探讨了 OpenAI 面临的生存问题。他提出,尽管 OpenAI 在 AI 领域占据显著地位,但其产品、商业模式和可持续性存在疑问。Zitron 认为,生成性 AI(Generative AI)尚未展现出类似云计算和智能手机热潮那样的大规模市场应用价值,同时其建设和运营成本极高。

与微软的复杂关系
OpenAI 与微软的关系复杂,2019 年接受了微软 10 亿美元的投资,并在 2023 年再次获得 100 亿美元的投资。然而,这种关系既是生命线也是竞争来源,微软通过投资获得了 OpenAI 的技术和知识产权的访问权,并可能通过自己的服务销售 OpenAI 的技术。

资金筹集的挑战
Zitron 指出,OpenAI 要维持生存,可能需要筹集比历史上任何初创公司都要多的资金。据报道,OpenAI 在 2024 年可能烧掉高达 50 亿美元,这要求公司每年至少需要额外的 50 亿美元资本。

技术突破与市场适应性
为了长期生存,OpenAI 需要技术上的重大突破,以降低建设和运营成本,并开拓全新的应用案例。然而,Zitron 认为,目前 OpenAI 的形态是不可持续的,因为它没有找到通往盈利的道路,而且生成性 AI 技术对电网的需求和训练模型所需的数据量都是问题。

能源与成本问题
文章还提到,为了支持 AI 的扩展,需要对美国电网进行大规模的资本支出,这在当前的基础设施发展环境中是不现实的。此外,AI 的全球排放量正在增加,这对环境构成了挑战。

#OpenAI

https://www.wheresyoured.at/to-serve-altman/
Forwarded from AI Copilot
#Update #OpenAI

OpenAI 最近发布了支持输出最高 64K tokens 的 GPT-4o 模型,API 定价如下:

- 输入:6 USD / 1M tokens
- 输出:18 USD / 1M tokens

该模型目前在 Alpha 阶段。
土耳其派出一名 51 岁的男子,没有佩戴专门的隐形眼镜、眼罩或耳罩,获得了银牌🤯