全球主机交流论坛

标题: GLM-5这个模型也还可以啊。 [打印本页]

作者: cw723    时间: 2026-3-6 13:15
标题: GLM-5这个模型也还可以啊。

DEEPSEEK-R1 太容易科幻思维了。

而且调温度也没用。 不知道为啥聊几句就变的很抽象。

反而GLM-5还可以。
作者: karson    时间: 2026-3-6 13:26
今天用GLM-5执行长任务 到后期容易出现语无伦次然后停止 不知道是不是我一个人的问题
作者: zh000323    时间: 2026-3-6 13:43
我觉得k2.5比glm5好用,glm5好慢
作者: cw723    时间: 2026-3-6 14:31
zh000323 发表于 2026-3-6 13:43
我觉得k2.5比glm5好用,glm5好慢

KIMI 服务器好吧。 GLM5 可以白**啊 。

https://ai.baishan.com/auth/login?referralCode=1gBchrnPpj

实名认证 3月15日前拿450元。

可以用GLM-5  DEEPSEEK-R1 0528  MIMIMAX M2.5

其他不太值得用。
作者: zh000323    时间: 2026-3-6 14:55
cw723 发表于 2026-3-6 14:31
KIMI 服务器好吧。 GLM5 可以白**啊 。

https://ai.baishan.com/auth/login?referralCode=1gBchrnPpj

你这个我前两天就薅了
作者: rqp    时间: 2026-3-6 15:24

作者: mslxd    时间: 2026-3-6 16:37
kimi 一直还可以的,其他不行,都吹得厉害,实际不行
作者: Musk    时间: 2026-3-6 16:38
那肯定可以
https://arena.ai/leaderboard/code
排名比gemini3 还高,
作者: williamc2    时间: 2026-3-6 17:00

作者: flypei    时间: 2026-3-6 17:22
就是速度太慢了




欢迎光临 全球主机交流论坛 (https://loc.528866.xyz/) Powered by Discuz! X3.4