=====
新对话流式传输逻辑、同步官网最新ui已上生产
专线线路已重新上线,畅享及以上方案的 gpt 可使用,刷新面板后,使用自动线路优化可进入。
新对话流式传输逻辑、同步官网最新ui已上生产
专线线路已重新上线,畅享及以上方案的 gpt 可使用,刷新面板后,使用自动线路优化可进入。
今日,官网现在team个人区都砍为普号了。
等于说一个号变相砍了1/3官网配额
Aizex 顶住压力,暂时不动用户配额
另外,后续都别用个人区了,用team区。
等于说一个号变相砍了1/3官网配额
Aizex 顶住压力,暂时不动用户配额
另外,后续都别用个人区了,用team区。
❤8👍2
Claude 已完成网络集群优化扩容。延迟更低,响应更顺。
(但是,claude 官网前端本身设计得极差。ssr 架构 next.js,首屏加载稍微花些时间是正常的。这边压缩跟缓存,能上的策略都上了
(但是,claude 官网前端本身设计得极差。ssr 架构 next.js,首屏加载稍微花些时间是正常的。这边压缩跟缓存,能上的策略都上了
已复刻 Claude 官方 token 限速,
将基于提问的上下文以及响应内容,来实现动态的 token 转提问次数的限速
基础最低次数消耗为1,在响应完成后会进行剩余token消耗的补全
在中等对话长度的提问下,token 转次数的消耗与原先固定为 2.2 倍类似
-----
为经过多轮测试的逆向方案。与官网存在少许精度上误差,在接受范围内
token 化与官网保持一致,符合客观实际,更有助于项目往健康化发展
后续 Aizex 将往 Claude 实用化发展,使其更能满足广大朋友的提问需求
-----
Reference:如何最大化利用我的Claude Pro?
将基于提问的上下文以及响应内容,来实现动态的 token 转提问次数的限速
基础最低次数消耗为1,在响应完成后会进行剩余token消耗的补全
在中等对话长度的提问下,token 转次数的消耗与原先固定为 2.2 倍类似
-----
为经过多轮测试的逆向方案。与官网存在少许精度上误差,在接受范围内
token 化与官网保持一致,符合客观实际,更有助于项目往健康化发展
后续 Aizex 将往 Claude 实用化发展,使其更能满足广大朋友的提问需求
-----
Reference:如何最大化利用我的Claude Pro?
Aizex 合租面板
已复刻 Claude 官方 token 限速, 将基于提问的上下文以及响应内容,来实现动态的 token 转提问次数的限速 基础最低次数消耗为1,在响应完成后会进行剩余token消耗的补全 在中等对话长度的提问下,token 转次数的消耗与原先固定为 2.2 倍类似 ----- 为经过多轮测试的逆向方案。与官网存在少许精度上误差,在接受范围内 token 化与官网保持一致,符合客观实际,更有助于项目往健康化发展 后续 Aizex 将往 Claude 实用化发展,使其更能满足广大朋友的提问需求…
Reference:如何最大化利用我的Claude Pro?
您的 Claude Pro 限额是基于您对话的总长度以及您发送的消息数量。
为了充分利用 Claude Pro:
开始新对话:当您想讨论新话题时,通过左上角的"AI"图标开始新对话。Claude每次收到消息时都需要重新阅读整个对话,所以开始新对话可以限制Claude继续对话所需的工作量。额外好处:Claude对较短的对话回应速度也会更快。
一次性提出多个问题,尤其是当您询问Claude关于长文档的问题时。因为Claude每次收到新消息都需要重新阅读对话,所以单独发送每个问题会比在一条消息中提出多个问题更快地耗尽您的限额。
不要重复上传文件。Claude能看到对话的整个上下文,所以您不需要多次上传同一个文件(除非您开始了新对话)。
您的 Claude Pro 限额是基于您对话的总长度以及您发送的消息数量。
为了充分利用 Claude Pro:
开始新对话:当您想讨论新话题时,通过左上角的"AI"图标开始新对话。Claude每次收到消息时都需要重新阅读整个对话,所以开始新对话可以限制Claude继续对话所需的工作量。额外好处:Claude对较短的对话回应速度也会更快。
一次性提出多个问题,尤其是当您询问Claude关于长文档的问题时。因为Claude每次收到新消息都需要重新阅读对话,所以单独发送每个问题会比在一条消息中提出多个问题更快地耗尽您的限额。
不要重复上传文件。Claude能看到对话的整个上下文,所以您不需要多次上传同一个文件(除非您开始了新对话)。
aizex api 已支持 claude 系列模型
claude-3-5-sonnet
claude-3-opus
claude-3-haiku
claude-3-sonnet
claude-3-5-sonnet
claude-3-opus
claude-3-haiku
claude-3-sonnet
近日更新:
- GPT 新增对话所在官网账号离线时的提示
- GPT 改善防降智风控逻辑,降低 gpt 对话发送延迟
- GPT 修复选中引用不生效的问题
- GPT 新增对话所在官网账号离线时的提示
- GPT 改善防降智风控逻辑,降低 gpt 对话发送延迟
- GPT 修复选中引用不生效的问题
克劳德降费更新:
后台新增阶梯策略,在部分情况下,更贴合官网实际
新增单轮对话消耗封顶策略
普号已关闭 token 转次数。固定消耗
后台新增阶梯策略,在部分情况下,更贴合官网实际
新增单轮对话消耗封顶策略
普号已关闭 token 转次数。固定消耗
👍2
api 站大幅提升高负载时的稳定性。
api 新增对 claude 最新 new 模型的支持(1022)。
api 新增 gemini 系列模型
api 新增对 claude 最新 new 模型的支持(1022)。
api 新增 gemini 系列模型
=====
- Claude 访问速度已取消降级、恢复到边际速度。已针对官网风控做了多个项的处理。
- Claude 对话 markdown 导出功能,已处理 artifact 无法展示问题。
- GPT 修改标题修复了一处小瑕疵
- GPT、Claude 新增删除全部对话路由
- 高负载下4o模型不会变灰,已全量推送生产
- Claude 访问速度已取消降级、恢复到边际速度。已针对官网风控做了多个项的处理。
- Claude 对话 markdown 导出功能,已处理 artifact 无法展示问题。
- GPT 修改标题修复了一处小瑕疵
- GPT、Claude 新增删除全部对话路由
- 高负载下4o模型不会变灰,已全量推送生产