win11 运行 ubuntu-wsl好玩吗?
LINUX DO - 热门话题 (RSS)
上一周在一个机缘巧合下,了解了在win环境运行ubuntu系统可以通过wsl无缝连接,这个不用来回切切换虚拟机,方便很多。还可以运行github给到代码。
佬们,除了这样还有哪些比这个更加好玩的。
本人小白,纯小白。
补充:没想到说这个话题引起那么多老友讨论还是不错的。看来。Linux是真正讨论Linux的时候了。
64 个帖子 - 32 位参与者
阅读完整话题
LINUX DO - 热门话题 (RSS)
上一周在一个机缘巧合下,了解了在win环境运行ubuntu系统可以通过wsl无缝连接,这个不用来回切切换虚拟机,方便很多。还可以运行github给到代码。
佬们,除了这样还有哪些比这个更加好玩的。
本人小白,纯小白。
补充:没想到说这个话题引起那么多老友讨论还是不错的。看来。Linux是真正讨论Linux的时候了。
64 个帖子 - 32 位参与者
阅读完整话题
GPT-Load 成长之路,需要佬友献策!!!
LINUX DO - 热门话题 (RSS)
github.com
GitHub - tbphp/gpt-load: 智能密钥轮询的多渠道 AI 代理。 Multi-channel AI proxy with...
智能密钥轮询的多渠道 AI 代理。 Multi-channel AI proxy with intelligent key rotation.
接着 【T佬】GPT-Load 1.0正式版发布,支持多渠道Key池轮询代理服务! 讨论。
GPT-Load 1.0 上线半个月,进行了一些功能迭代和问题修复后相对稳定了。
在维护1.0版本的同时,也将要进行开始1.1大版本的开发。
GPT-Load上线至今受到很多佬友的支持,特别感谢!也要请教一下各位神通的佬友们,对于GPT-Load有什么建议,功能,bug反馈等。
可以是:
— 功能性的建议
— 现有问题反馈
— 项目未来发展建议
— 参与核心开发、测试团队
— 任何能想到的评论,意见都可以。
各位佬友发挥想象力。
现有计划(还在规划设计,可能会和最终上线版本有差异):
— 模型重定向。(类似New-API一样使用json对模型重定向)。并且可以选择是否根据重定向配置进行模型过滤,如果开启则只能请求配置的模型。
— 创建|编辑分组表单优化:支持测试模型自动获取及上游测试(这两个功能依赖密钥,所以新建分组需要同时填写至少一个密钥)
— 分组Header覆盖。(是否需要支持删除Header配置,待考虑)
— 聚合分组。这个功能是之前站内好几个佬友有沟通过的,具体实现仍然再考虑。主要功能就是新建一个特殊的分组类型(聚合分组),生成一个代理地址,然后可以选择普通分组,每个分组设定权重。达到一个聚合地址代理多个分组进行轮询。这个功能的考虑点还有很多,例如依赖模型重定向,必须保证模型名称一致。或者有其他更好的方案,来实现分组的聚合。
— 分组测试密钥功能增强,返回时按照错误码返回,并且每个错误码都可以导出密钥。
以上很多计划都还处于设计阶段,考虑不完善。期待佬友们的脑洞大开,一起头脑风暴。
提出你宝贵的意见,或者给别人的意见投票吧
31 个帖子 - 29 位参与者
阅读完整话题
LINUX DO - 热门话题 (RSS)
github.com
GitHub - tbphp/gpt-load: 智能密钥轮询的多渠道 AI 代理。 Multi-channel AI proxy with...
智能密钥轮询的多渠道 AI 代理。 Multi-channel AI proxy with intelligent key rotation.
接着 【T佬】GPT-Load 1.0正式版发布,支持多渠道Key池轮询代理服务! 讨论。
GPT-Load 1.0 上线半个月,进行了一些功能迭代和问题修复后相对稳定了。
在维护1.0版本的同时,也将要进行开始1.1大版本的开发。
GPT-Load上线至今受到很多佬友的支持,特别感谢!也要请教一下各位神通的佬友们,对于GPT-Load有什么建议,功能,bug反馈等。
可以是:
— 功能性的建议
— 现有问题反馈
— 项目未来发展建议
— 参与核心开发、测试团队
— 任何能想到的评论,意见都可以。
各位佬友发挥想象力。
现有计划(还在规划设计,可能会和最终上线版本有差异):
— 模型重定向。(类似New-API一样使用json对模型重定向)。并且可以选择是否根据重定向配置进行模型过滤,如果开启则只能请求配置的模型。
— 创建|编辑分组表单优化:支持测试模型自动获取及上游测试(这两个功能依赖密钥,所以新建分组需要同时填写至少一个密钥)
— 分组Header覆盖。(是否需要支持删除Header配置,待考虑)
— 聚合分组。这个功能是之前站内好几个佬友有沟通过的,具体实现仍然再考虑。主要功能就是新建一个特殊的分组类型(聚合分组),生成一个代理地址,然后可以选择普通分组,每个分组设定权重。达到一个聚合地址代理多个分组进行轮询。这个功能的考虑点还有很多,例如依赖模型重定向,必须保证模型名称一致。或者有其他更好的方案,来实现分组的聚合。
— 分组测试密钥功能增强,返回时按照错误码返回,并且每个错误码都可以导出密钥。
以上很多计划都还处于设计阶段,考虑不完善。期待佬友们的脑洞大开,一起头脑风暴。
提出你宝贵的意见,或者给别人的意见投票吧
31 个帖子 - 29 位参与者
阅读完整话题
不是吧!linuxdo居然没有人利用gpt-research? 一个非常有用的agent架构
LINUX DO - 热门话题 (RSS)
gpt-research 集合了当今最有用的那些agent技术,利用了最主流的技术方案,非常时候二开和基于它开发新产品。例如它整合了上下文工程,RAG, MCP,多种搜索,deep search, deep research, 提示语工程, 写报告,完整的前后端, fastapi,等等。反正我觉得这个是大宝藏啊,基于它可以开发很多很多现代agent.
GPT Researcher 的研究过程是一个复杂的系统,它:
— 接受用户查询并计划研究策略
— 生成子查询以探索主题的不同方面
— 从各种来源(Web、本地文档等)检索信息
— 刮擦和处理内容以提取相关信息
— 管理和策划研究背景
— 准备用于生成报告的数据
— 这个过程是高度模块化和可配置的,允许根据用户的需求,从快速的网络搜索到复杂主题的深度递归探索不同的研究策略。
为什么要选择自己控制和开发的research型agent?因为直接用通用的deep research有如下缺点:
1. 无法选择本地模型
通用型应用无法使用本地化部署的模型,也无法使用微调后的模型,或使用模型组合,难以满足特定领域的深度研究需求。
2. 数据安全和管理问题
通用型应用无法连接和利用研究组已有的知识库、数据库和实验数据,难以对数据进行体系化管理,保证数据安全。
3. 缺乏开放集成能力
通用型应用无法开放集成各种细分领域的算法、小模型、专家知识,实验室本地化部署的专业软件和代码,限制了其在科研领域的应用范围。
下面介绍gpt-research的核心,注意:文章是按我的意思指导AI整理文字,我觉得现在这个时候很难不用AI写文章了,希望理解,
流程实例图:
核心模块
1. Agent 模块
— GPTResearcher: 主代理类,负责协调整个研究流程
— 管理研究配置、检索器、技能模块等
— 处理研究任务的调度和执行
示例:...
View original post
LINUX DO - 热门话题 (RSS)
gpt-research 集合了当今最有用的那些agent技术,利用了最主流的技术方案,非常时候二开和基于它开发新产品。例如它整合了上下文工程,RAG, MCP,多种搜索,deep search, deep research, 提示语工程, 写报告,完整的前后端, fastapi,等等。反正我觉得这个是大宝藏啊,基于它可以开发很多很多现代agent.
GPT Researcher 的研究过程是一个复杂的系统,它:
— 接受用户查询并计划研究策略
— 生成子查询以探索主题的不同方面
— 从各种来源(Web、本地文档等)检索信息
— 刮擦和处理内容以提取相关信息
— 管理和策划研究背景
— 准备用于生成报告的数据
— 这个过程是高度模块化和可配置的,允许根据用户的需求,从快速的网络搜索到复杂主题的深度递归探索不同的研究策略。
为什么要选择自己控制和开发的research型agent?因为直接用通用的deep research有如下缺点:
1. 无法选择本地模型
通用型应用无法使用本地化部署的模型,也无法使用微调后的模型,或使用模型组合,难以满足特定领域的深度研究需求。
2. 数据安全和管理问题
通用型应用无法连接和利用研究组已有的知识库、数据库和实验数据,难以对数据进行体系化管理,保证数据安全。
3. 缺乏开放集成能力
通用型应用无法开放集成各种细分领域的算法、小模型、专家知识,实验室本地化部署的专业软件和代码,限制了其在科研领域的应用范围。
下面介绍gpt-research的核心,注意:文章是按我的意思指导AI整理文字,我觉得现在这个时候很难不用AI写文章了,希望理解,
流程实例图:
核心模块
1. Agent 模块
— GPTResearcher: 主代理类,负责协调整个研究流程
— 管理研究配置、检索器、技能模块等
— 处理研究任务的调度和执行
示例:...
View original post
Claude Pro太贵?教你用火山引擎API免费玩转Claude Code
LINUX DO - 热门话题 (RSS)
轻松给Claude Code接入火山引擎API
前提条件
在开始之前,请确保您已经安装好Claude CLI。接下来我们将部署Claude Code Proxy代理服务,该服务支持多种接入方式,让您能够灵活切换不同的AI模型提供商。
步骤一:下载并安装Claude Code Proxy
首先访问Releases · AIDotNet/ClaudeCodeProxy页面,下载最新版本的win-64压缩包。下载完成后解压文件,您将看到以下目录结构:
步骤二:启动代理服务
使用管理员权限运行run-directly.bat脚本。此脚本主要用于测试和快速启动服务。
注意:使用管理员权限是为了将服务注册为Windows服务,这样可以实现常驻运行,无需每次手动启动。
启动成功后,您将看到以下日志输出,此时可以通过浏览器访问http://localhost:6500:
步骤三:登录管理界面
在浏览器中打开http://localhost:6500,您将看到登录界面。使用默认账号密码登录:
— 用户名:admin
— 密码:admin123
登录成功后,您将进入系统首页:
步骤四:配置火山引擎API账户
在首页中点击"账户管理",然后点击右上角的"添加账户"按钮:
在弹出的配置界面中:
— 服务类型:选择"OpenAI"
— BaseURL:输入https://ark.cn-beijing.volces.com/api/v3
— API Key:填写您的火山引擎密钥
— 点击"创建"按钮完成配置
步骤五:创建API Key
账户添加完成后,点击"API Key管理",然后点击"创建API Key":
在创建API Key时,请注意以下配置:
— 服务类型:选择"OpenAI"
— 模型:指定一个具体的模型,或者通过环境变量进行设置
— 配置完成后点击"创建"
创建完成后,请复制生成的API Key,我们将在下一步中使用它。
步骤六:配置Claude Code
现在需要配置Claude Code使用我们的代理服务。
6.1 打开配置目录
导航到Claude...
View original post
LINUX DO - 热门话题 (RSS)
轻松给Claude Code接入火山引擎API
前提条件
在开始之前,请确保您已经安装好Claude CLI。接下来我们将部署Claude Code Proxy代理服务,该服务支持多种接入方式,让您能够灵活切换不同的AI模型提供商。
步骤一:下载并安装Claude Code Proxy
首先访问Releases · AIDotNet/ClaudeCodeProxy页面,下载最新版本的win-64压缩包。下载完成后解压文件,您将看到以下目录结构:
步骤二:启动代理服务
使用管理员权限运行run-directly.bat脚本。此脚本主要用于测试和快速启动服务。
注意:使用管理员权限是为了将服务注册为Windows服务,这样可以实现常驻运行,无需每次手动启动。
启动成功后,您将看到以下日志输出,此时可以通过浏览器访问http://localhost:6500:
步骤三:登录管理界面
在浏览器中打开http://localhost:6500,您将看到登录界面。使用默认账号密码登录:
— 用户名:admin
— 密码:admin123
登录成功后,您将进入系统首页:
步骤四:配置火山引擎API账户
在首页中点击"账户管理",然后点击右上角的"添加账户"按钮:
在弹出的配置界面中:
— 服务类型:选择"OpenAI"
— BaseURL:输入https://ark.cn-beijing.volces.com/api/v3
— API Key:填写您的火山引擎密钥
— 点击"创建"按钮完成配置
步骤五:创建API Key
账户添加完成后,点击"API Key管理",然后点击"创建API Key":
在创建API Key时,请注意以下配置:
— 服务类型:选择"OpenAI"
— 模型:指定一个具体的模型,或者通过环境变量进行设置
— 配置完成后点击"创建"
创建完成后,请复制生成的API Key,我们将在下一步中使用它。
步骤六:配置Claude Code
现在需要配置Claude Code使用我们的代理服务。
6.1 打开配置目录
导航到Claude...
View original post
OpenAI自曝了他们的深度研究提示词
LINUX DO - 热门话题 (RSS)
OpenAI自曝了他们的深度研究提示词
cookbook.openai.com
Introduction to deep research in the OpenAI API | OpenAI Cookbook
The Deep Research API enables you to automate complex research workflows that require reasoning, planning, and synthesis across real-worl......
View original post
LINUX DO - 热门话题 (RSS)
OpenAI自曝了他们的深度研究提示词
cookbook.openai.com
Introduction to deep research in the OpenAI API | OpenAI Cookbook
The Deep Research API enables you to automate complex research workflows that require reasoning, planning, and synthesis across real-worl......
View original post
Claude Pro太贵?教你用火山引擎API免费玩转Claude Code
LINUX DO - 热门话题 (RSS)
轻松给Claude Code接入火山引擎API
前提条件
在开始之前,请确保您已经安装好Claude CLI。接下来我们将部署Claude Code Proxy代理服务,该服务支持多种接入方式,让您能够灵活切换不同的AI模型提供商。
步骤一:下载并安装Claude Code Proxy
首先访问Releases · AIDotNet/ClaudeCodeProxy页面,下载最新版本的win-64压缩包。下载完成后解压文件,您将看到以下目录结构:
步骤二:启动代理服务
使用管理员权限运行run-directly.bat脚本。此脚本主要用于测试和快速启动服务。
注意:使用管理员权限是为了将服务注册为Windows服务,这样可以实现常驻运行,无需每次手动启动。
启动成功后,您将看到以下日志输出,此时可以通过浏览器访问http://localhost:6500:
步骤三:登录管理界面
在浏览器中打开http://localhost:6500,您将看到登录界面。使用默认账号密码登录:
— 用户名:admin
— 密码:admin123
登录成功后,您将进入系统首页:
步骤四:配置火山引擎API账户
在首页中点击"账户管理",然后点击右上角的"添加账户"按钮:
在弹出的配置界面中:
— 服务类型:选择"OpenAI"
— BaseURL:输入https://ark.cn-beijing.volces.com/api/v3
— API Key:填写您的火山引擎密钥
— 点击"创建"按钮完成配置
步骤五:创建API Key
账户添加完成后,点击"API Key管理",然后点击"创建API Key":
在创建API Key时,请注意以下配置:
— 服务类型:选择"OpenAI"
— 模型:指定一个具体的模型,或者通过环境变量进行设置
— 配置完成后点击"创建"
创建完成后,请复制生成的API Key,我们将在下一步中使用它。
步骤六:配置Claude Code
现在需要配置Claude Code使用我们的代理服务。
6.1 打开配置目录
导航到Claude...
View original post
LINUX DO - 热门话题 (RSS)
轻松给Claude Code接入火山引擎API
前提条件
在开始之前,请确保您已经安装好Claude CLI。接下来我们将部署Claude Code Proxy代理服务,该服务支持多种接入方式,让您能够灵活切换不同的AI模型提供商。
步骤一:下载并安装Claude Code Proxy
首先访问Releases · AIDotNet/ClaudeCodeProxy页面,下载最新版本的win-64压缩包。下载完成后解压文件,您将看到以下目录结构:
步骤二:启动代理服务
使用管理员权限运行run-directly.bat脚本。此脚本主要用于测试和快速启动服务。
注意:使用管理员权限是为了将服务注册为Windows服务,这样可以实现常驻运行,无需每次手动启动。
启动成功后,您将看到以下日志输出,此时可以通过浏览器访问http://localhost:6500:
步骤三:登录管理界面
在浏览器中打开http://localhost:6500,您将看到登录界面。使用默认账号密码登录:
— 用户名:admin
— 密码:admin123
登录成功后,您将进入系统首页:
步骤四:配置火山引擎API账户
在首页中点击"账户管理",然后点击右上角的"添加账户"按钮:
在弹出的配置界面中:
— 服务类型:选择"OpenAI"
— BaseURL:输入https://ark.cn-beijing.volces.com/api/v3
— API Key:填写您的火山引擎密钥
— 点击"创建"按钮完成配置
步骤五:创建API Key
账户添加完成后,点击"API Key管理",然后点击"创建API Key":
在创建API Key时,请注意以下配置:
— 服务类型:选择"OpenAI"
— 模型:指定一个具体的模型,或者通过环境变量进行设置
— 配置完成后点击"创建"
创建完成后,请复制生成的API Key,我们将在下一步中使用它。
步骤六:配置Claude Code
现在需要配置Claude Code使用我们的代理服务。
6.1 打开配置目录
导航到Claude...
View original post