马 鹰 (@wxxchou) 在 不懂就问系类之GitHub学生包问题 中发帖
不懂就问,搞了一个无限别名的国内edu,想问下佬友网络问题怎么解决,找了国内代理,都没有找到那个地方的,怎么搞,卡住了,不知道改如何进行了。
感谢鸟大佬友回答
Mozi (@yeahhe) 在 Google的 AI 算力到底有多少?AI Studio用户上百万,上下文 1M,token输出速度快... 中发帖
开放AI Studio用户上百万
上下文最多
token输出速度快…
Gemini使用限额放得很开
少有封号
宕机问题少
这些行为是否意味着Google的AI 算力游刃有余?
Google是否打通全产业链?
TPU、服务器、搜索引擎、强大的资本,这些优势正在体现?
欣 郁 (@user1164) 在 个人版学术型深度搜索的Demo 中发帖
2小时的研究成果,但已蔚为可观,分享给大家以广集思路
AI模型:gemini 2.5 pro(不能是oneapi转发的open ai格式;我自己用了反代理)
MCP工具:google-scholar-MCP-Server,pdf-reader
交互:cherry studio
重点思路:
调用MCP工具获得(比如20篇)文章的标题、摘要和DOI
利用doi在sci-hub找到文章的pdf原文
利用pdf原文(若sci-hub未收录,则仅使用该文章的摘要),撰写一篇综述
系统提示词如下:
你是一个生命科学领域的专家,你将接收一个待研究主题,之后进行如下操作:
第一步,使用函数search_google_scholar_key_words,检索待研究主题,关键词用英文检索,检索数量为20,然后返还它们的标题、完整的摘要、完整的杂志和doi号,并展示所有结果。
第二步,检索杂...
黑客帝国 (@org) 在 调研关税、汇率与股票市场,以及大国博弈的关系 中发帖
[gemini deep research]
用的MUSE大学给开的Gemini
模型为Deep Research with 2.5 Pro
看起来不错
laurdawn 在 页面的ai聊天2api 中发帖
我想把页面的ai聊天转api,但是页面的ai只有user的content,没办法把system和assistant的内容转过来,我一把全部放到user里面,回答乱七八糟的,容易不按套路出牌,各位大佬有什么办法吗
@mofas 在 逆天!Cursor直接干满我的cpu! 中发帖
用Cursor打开这个项目 直接给我cpu吃满了~
[image]
[image]
本来想二开这个项目呢,头大,大佬们有没有什么解决办法啊
diyun 在 好吧,骂OpenAI的帖子被删了,但是我还是有一点想说 中发帖
我知道社区的规矩是友善。
但是我私以为应该是对内友善即可。
像山姆奥特曼做出这么恶心人的事,就应该骂啊,要大力骂!
当然这只是我个人的情绪宣泄,因为就是研究了站内几个关于降智的帖子之后,我确认我账号被降智,作为付费用户,我十分不爽,仅此而已。
这就是个吐槽贴,没有任何营养,也没有反对论坛规则的意思,管理员请略过。
半杯无糖 (@passerby) 在 丝滑浏览订阅LinuxDO 中发帖
用的企业微信的应用(早起注册的应用不需要设置白名单ip)
[Screenshot_20250409_221126_com_tencent_wework_MessageListActivity]
[Screenshot_20250409_221134_com_tencent_wework_MessageListActivity]
修改自下面几个项目:
订阅推送在下面这个佬项目的基础上,用C3.7改出来的,自己一点没动手
权限分区的rss订阅用的这个佬下面的方案,本地部署的
https://linux.do/t/topic/31549
https://linux.do/t/topic/83822
chat007 在 WindowsXP第三方版开机曲AI再创作 中发帖
流泪吧,纪念逝去的时光!
[番茄花园WinXP桌面]
番茄花园windowsXP开机音乐(原曲)
WINDOWS开机曲 (Drum ver.非原创)
windowsXP开机(AI创作)
还记得Windows XP桌面的蓝天和草地吗?这张照片背后的故事也很有趣呢
Windows XP桌面照片背后的故事你知道吗
@PSP 在 Google 发布第七世代TPU:Ironwood,算力能效翻倍,和NVIDIA差距再次缩小。 中发帖
迄今为止性能最强、可扩展性最好的自定义 AI 加速器,也是首个专门为推理设计的 TPU。
Gemini 2.5 和获得诺贝尔奖的 AlphaFold 都在今天的 TPU 上运行
显著的性能提升,同时注重能效,使 AI 工作负载运行更加经济高效。 Ironwood 的性能/瓦特比我们的第六代 TPU Trillium 提高了 2 倍,Trillium 是在去年宣布的。在可用电力是提供 AI 能力的一个限制因素的时候,我们为客户的工作负载提供了显著更多的容量每瓦。我们的先进液体冷却解决方案和优化的芯片设计可以在连续、重负载的 AI 工作负载下,可靠地维持比标准空气冷却高两倍的性能。事实上,Ironwood 比我们 2018 年的第一个 Cloud TPU 的能效高近 30 倍。
大幅增加高带宽内存(HBM)容量。 Ironwood 每芯片提供 192GB,是 Trillium 的 6 倍...