硬核开源智库
812 subscribers
42 photos
1.12K links
提供硬核学习资源,探索开源力量,驾驭AI未来! 本频道精选GitHub优质开源项目、最新人工智能(AI)技术进展、前沿科技资讯以及各类有价值的学习资源,助你站在技术浪潮之巅,实现知识与技能的快速跃迁。无论你是开发者、AI爱好者还是技术探索者,都能在这里找到属于你的宝藏!
Download Telegram
Awesome-MLLM-Reasoning-Collection:一站式多模态推理资源大列表,助力研究人员和开发者轻松掌握前沿技术。

汇集129篇多模态推理领域的前沿论文;提供57个开源项目和数据集,涵盖图像、视频等多种模态;整合多个基准测试,为模型评估提供全面参考
#LLM #开源项目 #AI前沿论文
详细介绍了如何通过 Prompt Engineering 来优化大型语言模型(LLM)的输出,包括 LLM 输出配置、输出长度控制、采样控制、温度参数、Top-K 和 Top-P 策略、以及整合这些技术。

本文档涵盖了各种 Prompt 技术,包括通用 Prompt、单次 Prompt、少量 Prompt、系统 Prompt、角色 Prompt、情境 Prompt 等。

文档还讨论了自动 Prompt 工程、代码相关 Prompt 技术、多模态 Prompt 技术,并提供了一系列最佳实践指南,以帮助用户更好地设计 Prompt,包括提供示例、简洁设计、明确输出、优先使用指令而非约束、控制最大令牌长度、在 Prompt 中使用变量、实验输入格式和写作风格、在少量 Prompt 中混合类别、适应模型更新以及实验输出格式等。

Prompt Engineering(提示词工程)| #指南 #Prompt Engineering #LLM
Aphrodite Engine:大规模LLM推理引擎,为高效部署和运行大型语言模型提供强大支持。

支持多种量化格式,如fp2-fp12,显著降低内存占用;8位KV缓存,大幅提升上下文长度和吞吐量;支持多种硬件平台,包括CUDA、TPU、Inferentia等
#LLM
webapp-starter:为构建Web应用提供一站式解决方案,完美适配LLMs。

基于Turborepo构建,支持快速开发;集成Hono + Bun API后端和Next.js前端,技术栈强大;提供一键部署到Vercel和Render的方案,部署无忧
#AI #LLM #WEB
Chatwiki:基于企业私有知识库的智能客服机器人问答系统,为企业量身打造专属AI客服,解决客户咨询难题。

支持20多种主流大模型,灵活适配企业需求;文档图片智能提取,问答时精准图文回复;提供企业级多级权限控制,保障数据安全
#LLM #RAG
Awesome-Multi-Turn-LLMs:一站式资源库,助力多轮对话研究与应用。

汇总95篇多轮交互相关论文,涵盖多种任务类型;提供10+多轮对话数据集,助力模型训练与评估;整理多种改进方法,如SFT、RL等,提升模型性能
#LLM #资源参考 #AI
Happy-LLM:从零开始的大语言模型原理与实践教程,带你深入探索LLM的世界。| #教程

系统性教程,从NLP基础到LLaMA2实现;动手实践,涵盖预训练到微调全流程;结合前沿技术,如RAG和Agent
#资源参考 #AI #LLM #免费教程 #AI教程
llm-course:一站式学习大型语言模型(LLM)的免费课程。| #教程

课程分为LLM基础、科学家、工程师三部分,覆盖从理论到实践的全过程;提供多种实用工具,如模型合并、量化、自动评估等;互动式学习体验,配备LLM助教答疑
#资源参考 #AI教程 #LLM免费教程 #免费课程
Awesome-LLM-Scientific-Discovery:汇集大型语言模型(LLM)在科学研究中的前沿论文、工具和资源。它为研究人员、开发者和爱好者提供了一个全面的概览,助力探索LLM在科学发现中的应用。

从自动化到自主化的三级框架,清晰划分LLM在科学研究中的角色;涵盖从文献综述到实验规划、数据分析再到假设验证的全流程;提供丰富的研究论文和工具资源,助力快速入门和深入研究
#LLM #资源参考 #LLM论文 #LLM资源
大厂大模型算法岗常考题汇总 | AwesomeInterview 汇集海量面试资料,助你高效备考,提升求职竞争力

• 覆盖编程语言、算法、系统设计、操作系统、数据库、网络、安全等多个技术领域
• 精选经典面试题与详解,涵盖初级到高级难度,适合不同阶段求职者
• 收录各大互联网公司真题及面试经验分享,助你把握行业趋势与面试重点
• 持续更新,社区活跃,支持贡献与交流,打造动态学习平台
#资源参考 #大厂大模型算法考题 #LLM考题
The Ultra-Scale Playbook 是 Hugging Face 科研团队 nanotron 发布的一份权威指南,专注于大规模 LLM 训练的最佳实践与底层技术,适合所有希望掌握大规模分布式训练核心方法的研发者。

• 内容详尽:246 页精美排版 PDF,系统讲解 DeepSeek-V3 模型训练,涵盖 5D 并行、ZeRO 优化、快速计算核、计算与通信重叠及瓶颈分析。
• 丰富工具:集成理论解析、交互式图表、4000+ 次扩展实验及音频讲解,帮助理解复杂概念与实际应用。
• 开放资源:配合 nanotron 开源库(Nanotron、Picotron)及 Hugging Face 平台,促进高效分布式训练生态构建。
• 订阅获取:完整 PDF 通过 Hugging Face PRO 订阅提供,详见 hf.co/nanotron。
• 社区认可:被业界专家盛赞为分布式训练领域的“黄金级”读物,助力学术与工业界加速创新。
#资源参考 #LLM
Awesome AI Apps:一站式 AI 应用开发资源库,涵盖 RAG、agents、工作流等多种前沿实践,助力打造高效智能系统:

• 汇集 Google ADK、OpenAI Agents SDK、LangChain、LlamaIndex、Agno、CrewAI、AWS Strands 等主流 AI Agent 框架
• 多层级示例覆盖:从快速入门 Starter Agents(邮件助手、任务管理、天气机器人)到实用 Simple Agents(财经监控、日程助手、数据库对话)
• MCP(Model Context Protocol)方案示例:文档语义检索、GitHub 代码库分析、知识问答多场景应用
• RAG(检索增强生成)案例丰富,支持多文档对话、简历优化、PDF 分析、OCR 处理等
• 复杂端到端流程示范:多阶段深度研究、社交媒体及招聘分析、AI 趋势挖掘、会议演讲稿自动生成、金融数据预测服务
• 完整开发环境准备与安装说明,项目均含详细文档,适合不同水平开发者快速上手
• 社区开放贡献,持续更新,MIT 开源协议保障自由使用与改造

持续探索 AI Agent 与 LLM 驱动应用的多样可能,打造可复用、可扩展的智能系统架构,推动 AI 实践落地与创新。
#资源参考 #AIAgent #LLM #AI开发资源库
EasyOffer》是一个专为LLM学习者量身打造的开源项目,汇集了大厂面经、手写代码实现和常见大模型面试题,助你深入理解底层原理,提升实习与秋招竞争力。

项目特色:

- DeepSeek 系列模型核心结构及关键模块详解
- 多种生成采样方法(Top-p、Top-k、温度采样)手写实现
- 强化学习DPO训练代码简单解析
- 持续更新 LLaMA、Qwen 等热门大模型核心代码
- 面试必备大模型手写代码题及答案

适合大模型初学者和秋招备战者。
#资源参考 #面试准备 #AI #DeepSeek #LLM
AI工程不断迭代升级,想掌握LLM、RAG和智能代理的实战技巧?

AI Engineering Hub 是一个集深度教程与实战案例于一体的开源项目,覆盖大语言模型、检索增强生成、AI代理等前沿内容。无论你是入门者、开发者还是研究者,都能在这里找到丰富资源,助力项目落地和技能提升。

主要特色:
- 系统讲解大型语言模型(LLM)和检索增强生成(RAG)技术
- 丰富的AI智能代理实战案例,展示真实业务应用
- 详细示例代码,方便快速上手和二次开发
- 免费数据科学电子书赠送,涵盖150+核心课程,订阅即得
#资源参考 #AI Engineering Hub #LLM #RAG #AI前沿内容
LlamaFarm 是一个开源框架,专注于构建基于检索增强(RAG)和智能代理的AI应用。它内置了默认方案(本地模型 Ollama、向量存储 Chroma),但架构完全可扩展,支持随时替换运行时、数据库和解析器,无需重写代码。| #框架

主要特点:
- 本地优先体验,一条命令行工具(lf)管理项目、数据集和对话
- 生产级架构,支持配置驱动、模式校验的项目管理
- 灵活定制的RAG流水线,YAML配置即可轻松调整
- 集成多种AI运行时,支持本地模型和云端API无缝切换
- 丰富的CLI命令,实现项目初始化、数据上传、处理及聊天
- 提供OpenAI格式兼容的REST API,方便集成到各种应用

支持 macOS、Linux 和 Windows,安装便捷,助力开发者快速搭建强大AI系统。
#资源参考 #工具 #RAG #LLM
零成本本地运行Claude Code:一份完整的隐私编程助手搭建指南
最近开发者圈子里流传着一个有趣的玩法:用本地开源模型驱动Claude Code,实现完全离线、零API费用的AI编程助手。| 帖子

先说清楚一点:这套方案用的是Claude Code的工具链和交互框架,底层跑的是本地开源模型,并非Anthropic的Claude模型本身。但这恰恰是它的价值所在,你获得了一个能读写文件、执行终端命令、理解项目上下文的本地AI代理,数据完全不出本机。

整个搭建过程分四步:

第一步,安装Ollama作为本地模型引擎。Ollama负责托管AI模型并支持工具调用,安装后在后台静默运行。模型选择上,高配机器可以拉qwen3-coder:30b,普通配置用qwen2.5-coder:7b或gemma:2b也能跑。终端执行ollama run加模型名即可下载。

第二步,安装Claude Code本体。Mac和Linux用curl命令,Windows用irm命令,一行搞定。安装完用claude --version验证。如果之前登录过Anthropic账号,需要先登出。

第三步是关键,把Claude指向本地。默认情况下Claude会连Anthropic服务器,需要手动重定向。设置三个环境变量:ANTHROPIC_BASE_URL指向localhost:11434,ANTHROPIC_AUTH_TOKEN随便填个值比如ollama,再加上CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1关闭遥测。

第四步,进入任意项目目录,用claude --model加模型名启动,就能开始干活了。

评论区有些争议值得关注。有人质疑本地模型不支持工具调用,作者明确回应:支持。也有人反馈配置后无法创建文件,作者建议确保上下文长度超过32k,并尝试不同模型。还有人指出qwen3-coder:30b相比顶级闭源模型仍有差距,gemma:2b作为代理几乎不可用,而且要跑得流畅需要不错的硬件。

这套方案的真正意义在于提供了一种可能性:当你需要处理敏感代码、受限于网络环境、或者单纯想省钱时,本地AI代理是个可行选项。它不会取代云端大模型的能力上限,但在特定场景下足够实用。

至于什么时候能本地跑Opus 4.5?正如作者调侃的,得先问问Anthropic什么时候开源。
#资源参考 #LLM #本地化部署大模型