小克永远的神,sonnet神,opus神中神,mythos凡人用不了不予置评
gpt 3时代我是很早(真的真的非常早)就开始用的 现在没啥感觉因为免费用户寄 5.3-codex目前是我日用编程模型
哈寄米 g3ft在我大部分非编程或者轻编程任务是性价比的神,但是重度编程任务效果不佳
国模的话
早期ChatGLM-9B用过,流口水
Qwen2凑合 2.5也凑合(只用过7B)
到后面V3/R1基本上就是能用好用的状态
然后后R1时代的模型的话我深度用过的QwQ-32B,然后这几个月比较好用的就是K2/K2T/K2.5(神之一) GLM4.7/5/5.1 Minimax-M2.5/2.7 Qwen3.5-397B
牢包怎么说呢 C端产品牛逼,底模还没叫Seed的时候不咋地,叫Seed之后有明显进步,现在他妈的产品有个大问题就是豆包把一个T级参数模型让你随便用但是大家都只会chat不用专家模式
虾也弄了,step-3.5-flash,便宜,随便造,不心疼
如果让我用国模的话 k2.5用起来比较舒服
gpt 3时代我是很早(真的真的非常早)就开始用的 现在没啥感觉因为免费用户寄 5.3-codex目前是我日用编程模型
哈寄米 g3ft在我大部分非编程或者轻编程任务是性价比的神,但是重度编程任务效果不佳
国模的话
早期ChatGLM-9B用过,流口水
Qwen2凑合 2.5也凑合(只用过7B)
到后面V3/R1基本上就是能用好用的状态
然后后R1时代的模型的话我深度用过的QwQ-32B,然后这几个月比较好用的就是K2/K2T/K2.5(神之一) GLM4.7/5/5.1 Minimax-M2.5/2.7 Qwen3.5-397B
牢包怎么说呢 C端产品牛逼,底模还没叫Seed的时候不咋地,叫Seed之后有明显进步,现在他妈的产品有个大问题就是豆包把一个T级参数模型让你随便用但是大家都只会chat不用专家模式
虾也弄了,step-3.5-flash,便宜,随便造,不心疼
如果让我用国模的话 k2.5用起来比较舒服
Telegram
Cronfox's Channel
打一术歌
最近的Elephant-Alpha
我个人推测应该
可以排除Kimi系和GLM,尺寸体系对不上(Kimi系目前都是超大T级别模型,GLM的Flash都是3xB)
排除Stepfun,尺寸对不上,他们据说在搞Step3.5/Step4顾不上新模型
排除Minimax 尤其是M2.8 M2系都是一个底模架构炼的,尺寸也对不上
有一定概率是DS V4lite,但我不确定
有拿一套POC Token试探一下吗
我个人推测应该
可以排除Kimi系和GLM,尺寸体系对不上(Kimi系目前都是超大T级别模型,GLM的Flash都是3xB)
排除Stepfun,尺寸对不上,他们据说在搞Step3.5/Step4顾不上新模型
排除Minimax 尤其是M2.8 M2系都是一个底模架构炼的,尺寸也对不上
有一定概率是DS V4lite,但我不确定
有拿一套POC Token试探一下吗