Adobe GenP v3.6.1 [CGP Community Edition]
Adobe-GenP.v3.6.1-CGP.7z (1.5 MB)
转载自互联网。文件解压会被卡巴斯基报毒,nnd从rar转7z解压卡巴斯基一直删一直删……
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 东山小红)
Adobe-GenP.v3.6.1-CGP.7z (1.5 MB)
转载自互联网。文件解压会被卡巴斯基报毒,nnd从rar转7z解压卡巴斯基一直删一直删……
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 东山小红)
有没有在ai公司工作的佬友们,想知道大家经常加班吗
刚入职两天,一个做tob服务的ai初创公司,每天晚上都加到10点,但是没有加班费也没有免费晚餐,甚至没有打车报销,想跑路了
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: history)
刚入职两天,一个做tob服务的ai初创公司,每天晚上都加到10点,但是没有加班费也没有免费晚餐,甚至没有打车报销,想跑路了
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: history)
gcp是真随便啊
我真绷不住,我本来是想充wechat out的,然后顺带验证一下小号,直接就过了
淘宝的5刀卡,笑死
4 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: baipiaodang)
我真绷不住,我本来是想充wechat out的,然后顺带验证一下小号,直接就过了
淘宝的5刀卡,笑死
4 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: baipiaodang)
关于ChatGPT前端的问题
个人不太擅长前端,想请教一下各位大佬。
如果想克隆ChatGPT的前端UI,需要怎么处理官网的js文件。
个人想复刻一个ChatGPT官网UI,方法就是使用官网的文件,想请问一下各位,要如何下载全部的资源(包括html,css,js等),怎样处理js代码,让其能够运行。
通过F12发现,官网的js被拆分,访问时,html会让浏览器请求css和部分js文件,这些js会让浏览器请求剩下的js文件,
但如果部署原文件,js文件将不会让浏览器请求剩下的文件,
据说这种情况需要对js文件进行处理,但本人不太懂前端。
还请各位大佬指教!
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: Jerry Qiao)
个人不太擅长前端,想请教一下各位大佬。
如果想克隆ChatGPT的前端UI,需要怎么处理官网的js文件。
个人想复刻一个ChatGPT官网UI,方法就是使用官网的文件,想请问一下各位,要如何下载全部的资源(包括html,css,js等),怎样处理js代码,让其能够运行。
通过F12发现,官网的js被拆分,访问时,html会让浏览器请求css和部分js文件,这些js会让浏览器请求剩下的js文件,
但如果部署原文件,js文件将不会让浏览器请求剩下的文件,
据说这种情况需要对js文件进行处理,但本人不太懂前端。
还请各位大佬指教!
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: Jerry Qiao)
关于gcp付款验证问题
看着论坛里的佬友们都过gcp了 :tieba_087:
刚用的wildcard切了几个ip进去了但是扣款验证没收到6位数的验证码就成这样了 🫠
求教下各位大佬这样该怎么办 :tieba_087:
9 个帖子 - 3 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: user1)
看着论坛里的佬友们都过gcp了 :tieba_087:
刚用的wildcard切了几个ip进去了但是扣款验证没收到6位数的验证码就成这样了 🫠
求教下各位大佬这样该怎么办 :tieba_087:
9 个帖子 - 3 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: user1)
猜想:官网Grok-3-thinking是Grok-3-Mini,真正的Grok-3推理版并未发布,应该是Grok-3.5
上次测Grok-3-Mini的时候,思维链设置是默认的(官方API默认是low),没有开启high,思维链开启high后,很多题都能做对了。
这次官方API文档,上面标注了Grok-3似乎没有推理能力。如果仅从数学计算来看,我有一个大胆的假设,官网的Grok-3-thinking有可能就是Grok-3-Mini?(Grok-3-thinking可能一开始就根本不存在?)当然我测得太少,平时也不太用Grok的推理,而且题库偏向于推理和数学,没办法证明这个猜想,希望大家研究研究。(搜索了知乎,发现不少佬提出了和我类似的猜想)
如果这种假设猜想,真的能成立。那么,Grok-3.5的真实身份可能是Grok-3推理版(类似Gemini 2.0 Pro和Gemini 2.5 Pro的关系),而目前官网Grok-3推理版的真实身份可能是Grok-3 Mini?
如果这种假设猜想,真的能成立。Grok 3对标Gemini 2.0 Pro,那么Grok 3.5 的提升会非常大,应该能对标目前的 Gemini 2.5 Pro
2 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: PSP)
上次测Grok-3-Mini的时候,思维链设置是默认的(官方API默认是low),没有开启high,思维链开启high后,很多题都能做对了。
这次官方API文档,上面标注了Grok-3似乎没有推理能力。如果仅从数学计算来看,我有一个大胆的假设,官网的Grok-3-thinking有可能就是Grok-3-Mini?(Grok-3-thinking可能一开始就根本不存在?)当然我测得太少,平时也不太用Grok的推理,而且题库偏向于推理和数学,没办法证明这个猜想,希望大家研究研究。(搜索了知乎,发现不少佬提出了和我类似的猜想)
如果这种假设猜想,真的能成立。那么,Grok-3.5的真实身份可能是Grok-3推理版(类似Gemini 2.0 Pro和Gemini 2.5 Pro的关系),而目前官网Grok-3推理版的真实身份可能是Grok-3 Mini?
如果这种假设猜想,真的能成立。Grok 3对标Gemini 2.0 Pro,那么Grok 3.5 的提升会非常大,应该能对标目前的 Gemini 2.5 Pro
2 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: PSP)
Vertex与AI Studio计费存在不一致
同一对话AI Studio的计费大约是Vertex的三倍。受此影响OpenRounter已经开始接受售后申请。
以下是or官方公告:
Gemini 2.5 在 AI Studio 的通知:我们发现并修复了 AI Studio 中 Gemini 2.5 pro 的一个上游令牌计费错误(在使用思考令牌时)。
影响:在过去两天中,被路由到 AI Studio 的用户似乎被多计费了完成令牌(AI Studio 将思考令牌在完成令牌中重复计算)。而在之前的三天中,被路由到 Vertex 的用户则被少计费了完成令牌(因此 OpenRouter 一直在亏损,我们对此的修复“暴露”了 AI Studio 中的问题)。
今天与 Vertex 团队讨论后,这似乎是 AI Studio 中的一个 Google 端错误。他们现在正在向 Google 报告这个问题。我们还设置了一些供应商测试,以便今后检测此类问题。
由于上文第 2 段中的细微差别,处理此情况下的计费问题有些复杂,但如果您在过去两天中大量被路由到 AI Studio,请发送电子邮件至 support@openrouter.ai。(如果您直接使用 AI Studio 或使用 BYOK,您可能也需要直接联系 Google。)
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: iceseeker)
同一对话AI Studio的计费大约是Vertex的三倍。受此影响OpenRounter已经开始接受售后申请。
以下是or官方公告:
Gemini 2.5 在 AI Studio 的通知:我们发现并修复了 AI Studio 中 Gemini 2.5 pro 的一个上游令牌计费错误(在使用思考令牌时)。
影响:在过去两天中,被路由到 AI Studio 的用户似乎被多计费了完成令牌(AI Studio 将思考令牌在完成令牌中重复计算)。而在之前的三天中,被路由到 Vertex 的用户则被少计费了完成令牌(因此 OpenRouter 一直在亏损,我们对此的修复“暴露”了 AI Studio 中的问题)。
今天与 Vertex 团队讨论后,这似乎是 AI Studio 中的一个 Google 端错误。他们现在正在向 Google 报告这个问题。我们还设置了一些供应商测试,以便今后检测此类问题。
由于上文第 2 段中的细微差别,处理此情况下的计费问题有些复杂,但如果您在过去两天中大量被路由到 AI Studio,请发送电子邮件至 support@openrouter.ai。(如果您直接使用 AI Studio 或使用 BYOK,您可能也需要直接联系 Google。)
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: iceseeker)
求助大模型本地部署(自动装载卸载,类型多样)
本地部署大模型,后端服务器调研ollama,vllm,xinference。本地主机为nvidia3090 24g版本,主要使用方式为团队知识库,面临的问题主要有:
1. ollama可以实现模型自动装载卸载,但是目前不支持rerank模型,即使导入显示也判断为 embed类型。
2. vllm 和xinference 不支持模型自动装载卸载,模型持续占用较大。另外实现系统自动启动的难度较大。
咨询佬友,有没有能够实现模型自动装载,部署容易,支持类型多样(重排,嵌入等)的部署框架或者教程。
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: oswald522)
本地部署大模型,后端服务器调研ollama,vllm,xinference。本地主机为nvidia3090 24g版本,主要使用方式为团队知识库,面临的问题主要有:
1. ollama可以实现模型自动装载卸载,但是目前不支持rerank模型,即使导入显示也判断为 embed类型。
2. vllm 和xinference 不支持模型自动装载卸载,模型持续占用较大。另外实现系统自动启动的难度较大。
咨询佬友,有没有能够实现模型自动装载,部署容易,支持类型多样(重排,嵌入等)的部署框架或者教程。
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: oswald522)
误操作!GitHub 官方:配置变更出意外,导致屏蔽中国 IP
由于一次产生意外影响的配置变更,未登录且尝试从中国访问 GitHub.com 的用户暂时无法访问。而已经登录的用户则能够继续成功访问。
此次影响始于北京时间 2025 年 4 月 13 日 4 点 01 分,于北京时间 2025 年 4 月 13 日 22 点 55 分得到缓解。
导致此次影响的配置变更已被撤销,用户在尝试访问 GitHub.com 时应该不会再遇到问题了。
来源 https://mp.weixin.qq.com/s/5ojZDgGFJ13Lj_P-NObO6w
总之,全世界都是草台班子……
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: Ben2008)
由于一次产生意外影响的配置变更,未登录且尝试从中国访问 GitHub.com 的用户暂时无法访问。而已经登录的用户则能够继续成功访问。
此次影响始于北京时间 2025 年 4 月 13 日 4 点 01 分,于北京时间 2025 年 4 月 13 日 22 点 55 分得到缓解。
导致此次影响的配置变更已被撤销,用户在尝试访问 GitHub.com 时应该不会再遇到问题了。
来源 https://mp.weixin.qq.com/s/5ojZDgGFJ13Lj_P-NObO6w
总之,全世界都是草台班子……
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: Ben2008)
Github 承认中国用户的访问被禁止是一个错误的配置结果
githubstatus.com
[Retroactive] Access from China temporarily blocked for users that were not...
GitHub's Status Page - [Retroactive] Access from China temporarily blocked for users that were not logged in.
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: Earmer Carey)
githubstatus.com
[Retroactive] Access from China temporarily blocked for users that were not...
GitHub's Status Page - [Retroactive] Access from China temporarily blocked for users that were not logged in.
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: Earmer Carey)