看了一圈都是售罄,国外的只能紧着用,完全不敢接到应用里。免费的 api 也都是定量,而且质量有点低
1
longxinglink 4 天前
OP 需求是啥,codex free 免费管饱,antigravity 生图玩 PPT 很好用,nvidia API 免费且支持并发,ollama APi 开源模型跟进更快
|
2
yulon 4 天前
Kimi 2.5 能满足的话可以用 Fireworks 的 Fire Pass
|
3
abc0123xyz 4 天前
鱼 搜 硅基流动 代金券
然后买 deepseek api 吧 接应用别搞 coding plan ,万一后期杀的严了,付费买原价买不起。 至少 deepseek 是真的便宜 |
4
GiantHard 4 天前
MiniMax 的 token plan 还在卖
|
5
jqknono 4 天前
|
6
Atma 4 天前 via Android
个人项目就买点中转的,别买太长
|
9
rust 3 天前
不推荐 MiniMax, 就是一坨.
|
10
ebushicao 3 天前
MiniMax 量大便宜,但过于降智,很多时候 skill 都不会调用,一问截止数据就知道路由到更差的模型上了。原本的 MiniMax-M2.7 还是可以的,比 glm-4.7 强和 glm-5 差不多。但是架不住白天调用给 M2 甚至 M1 的模型。
|
11
MontyWei 3 天前 可以看看 ollama cloud ,可以调用国内外的开源模型,注册之后有免费额度。你可以先试试开源的模型是否合适,之后再考虑购买套餐。
|
12
ayasealter570 3 天前
工作日都不太行。整点藤子的积分和 opencodeGo 吧
|
14
skallz 3 天前
之前买的百度家的,逛了一圈就百度家的能买得到,其他家全是耍猴,秒售罄。。。
|
15
wsbqdyhm 3 天前 via iPhone
关注一下,目前用 minimax ,随便玩玩龙虾还可以
|
16
cookii 3 天前
minimax 改复杂问题还差点,写业务代码是够了,主要是速度还比较快。
|
17
konakona 3 天前
目前用阿里云 Coding Plan Pro 投喂小龙虾……还算稳定,用的 qwen3.5 plus ,别的几个套餐内的模型简直了……= =#
|
18
cskeleton 3 天前
minimax 量大管饱,但是智商不行,模型规模就那样,我拿来接龙虾。
|
19
Rehtt 3 天前 via Android
mac 自建
|
20
rick13 3 天前
我周末刚买了 minimax49 一个月的套餐,用了两天感觉还行,也有可能是因为我用量不大的原因
|
22
jixule 3 天前
硅基流动代金券,方舟还能买到
|
23
LiXueLong 3 天前
@longxinglink 大佬,请问 codex free 免费管饱怎么操作
|
25
xiangqiankan 3 天前
@jixule 方舟千万别碰,量化版本就算了,额度还低,反应慢
|
30
wsseo 3 天前
国外 API 自己用可以,但是不要接到应用里,第一是网络不稳定,第二是找不到售后。
|
33
tedzhou1221 3 天前
minimax 极速版。简单问题,重复性的问题。让它来。
|
34
superkite OP @longxinglink 把 agent 接到应用里,目前接的阿里云百炼的免费模型
|
36
superkite OP @abc0123xyz deepseek 现在质量怎么样
|
40
superkite OP 我主要是自己开发的 app 和网站需要接入 agent ,现在接的阿里云免费 qwen-flash 模型,目前用户量比较小还能扛住,后面如果推广做起来了怕会顶不住,所以需要那种量大管饱的 apikey 和不算太笨的模型
|
41
ayasealter570 3 天前
kimicode199 的,minimax 工作日都会截断了
|
42
longxinglink 3 天前
|
44
lynn1su 3 天前
@ebushicao #43 不可能比 kimi2.5 强的,我已经本地部署了,智力感觉就超过了悦阶星辰的 step-3.5-flash ,和 glm-4.7 差不多,不可能有 kimi-2.5 这个水平的
|
46
fanfpy 3 天前
无问芯穹 三十天 12000 调用
|
47
NoobNoob030 3 天前
我自己 vibe 用中转站 gpt5.4 很便宜
|
48
captain55 3 天前
@longxinglink 大佬能具体讲讲 [codex free 免费管饱] 吗?
|
49
qyc666 3 天前
codex free 虽然量大,可是真的不管饱
nvidia 的 api 好用是好用,可是速度慢,别提往应用里接了 |
50
66beta 2 天前
deepseek 或 kimi 自己充钱吧,我用下来觉得还行的,没有比当下 4 月份的 claude 笨,反正觉得更聪明点,主要是量大管饱,1 块钱能做一个大任务
|
51
sheaned 2 天前
百度能买,就是并发低
|
52
chenjunqiang 2 天前
@longxinglink 大佬能具体讲讲 [codex free 免费管饱] 吗?
|
53
longxinglink 2 天前
@chenjunqiang
https://openai.com/codex/ 几乎没有注册门槛,只需要一个临时域名邮箱,同时多个国家首月 Plus/Business 免费,只需要绑定一个支付方式即可, 如果你不愿意绑定,free 计划也可以在 codex 中使用 gpt-5.4 , 包括 xhigh 级别思考方式,额度是 Plus 的一半,2.2 美元每五个小时,你想要用什么模型? @captain55 |
54
longxinglink 2 天前
@superkite https://build.nvidia.com/settings/api-keys 我推荐使用这个,API 里大概 280 个开源模型,包括 google/gemma-4-31b-it ,z-ai/glm5 这类,域名邮箱不需要手机号验证,免费计划支持 40 并发,几乎无限量,个人完全用不掉
base url https://integrate.api.nvidia.com/v1 key 用自己账户里的,不需要绑定支付方式,只需要域名邮箱接收验证码。 |
55
longxinglink 2 天前
@longxinglink 更正,是 187 个开源模型,我把 ollama (也是免费)的 36 个模型和其他 tab 模型也算进去了,ollama 可以在
https://ollama.com/ 注册,也是不需要验证手机号,不需要支付方式,直接获取免费 API ,比 nvidia 限制多,且一个 API 在同时间只能请求同一个模型 base url https://ollama.com/v1 API 填自己的,包含 glm-5.1 ,gemma4:31b ,minimax-m2.7 等 36 个开源模型 |
56
superkite OP @longxinglink ollama 适合本地跑,属于自己的模型了。我现在不知道企业里的 AI 应用解决方案是怎样的,他们那种 qps 和并发接普通的 api 会很贵吧
|
57
longxinglink 2 天前
@superkite https://www.v2ex.com/t/1205711
ollama cloud 有 Free 计划,直接给的 APi ,我把我的方案整理在这里了,企业级肯定比家用需要的 SLA 更高 |
58
mahonzhan 2 天前
|
60
c0xt30a 1 天前
@longxinglink 刚发现某些 ollama 模型最大生成长度被限制在 64K 了,使用的时候要注意
|
62
yjxjn 1 天前
codex free 免费管饱 -> 这玩意就免费,管饱够呛啊。。。
|