全员免费!GPT-4.1上线ChatGPT,首波实测:又快又没油腻感
今天凌晨开始,GPT-4.1可以直接在ChatGPT中使用了!而且是不管付费的没付费的,所有用户均可使用那种~官方介绍,GPT-4.1是一款专门针对编码任务和指令执行的模型,推理效率非常高。看看这张网友们自制的表格,它的能力一目了然:https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2025%2F0515%2F0b5c8671j00swa646000zd000hs00igm.jpg&thumbnail=660x2147483647&quality=80&type=jpg这家伙一个月前被OpenAI公开,当时声明专供API使用。但等等党终究迎来胜利——GPT-4.1的负责人Michelle Pokrass表示:
[*]我们最初真的计划只把这个模型开放给API,但你们都希望它能出现在ChatGPT里: )
现在,Plus、Pro、团队用户可以在模型选择处下拉,选择使用GPT-4.1;企业和教育用户将在接下来的几周内获得访问权限。而免费用户使用模型中的“GPT-4o mini”会被“GPT-4.1 mini”替代。在此之前,GPT-4.1已经在API里取代了GPT-4.5 Preview了。https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2025%2F0515%2F8fa1e0f5j00swa647000zd000hs00nfm.jpg&thumbnail=660x2147483647&quality=80&type=jpg
不少朋友们挺开心的,AI编程终于有更快更好的模型可以方便地用上了!https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2025%2F0515%2Fee2b4b3bj00swa646000sd000hs006hm.jpg&thumbnail=660x2147483647&quality=80&type=jpg
首波反馈:速度很快
不得不说,GPT-4.1放进ChatGPT就是比用API方便,很多小伙伴们都在第一时间玩起来了。截至推文发送,GPT-4.1在ChatGPT中的每日消息限制尚无官方信息,但已经有网友测出“与4o限制相同”。也就是说,免费用户每24小时最多使用5次GPT-4.1,超出后自动切换其它模型;Plus用户每3小时最多使用80次。https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2025%2F0515%2F8b0eff4fj00swa647000td000hs0085m.jpg&thumbnail=660x2147483647&quality=80&type=jpg
而归纳总结了大家的一些实测反馈,具体有这几个使用感受。第一,速度很快。比使用OpenAI所有其它模型的体感都要快、要丝滑。有人想到了一个让多模型合作起来为自己干活的好方法:如果你觉得o3好用但耗时太快,不如让GPT-4.1先搭个框架,再丢给o3检查!既省时间又提高效率。https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2025%2F0515%2F0ee8324bj00swa647000id000hs005gm.jpg&thumbnail=660x2147483647&quality=80&type=jpg
还有网友发推表示:
[*]非常快,而且一次就能搞定任务
这是它制作的交互式粒子模拟。
http://dingyue.ws.126.net/2025/0515/c78c02efg00swa64700n9d000ec007om.gif
这个不出所料,毕竟之前OpenAI对系列中GPT-4.1 nano的定位就是“OpenAI目前速度最快、成本最低”的模型。但“快”这个感受还是太主观了,大家可以亲自使用一下,然后再来评论区和我们分享感受~第二,需要明确清晰的指示。这与GPT-4.1在指令遵循基准中得分38.3%契合上了。https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2025%2F0515%2Fc4f37cf4j00swa647000md000hs0064m.jpg&thumbnail=660x2147483647&quality=80&type=jpg
第三,清爽很多。4o前段时间身上的谄媚啊油腻啊,在GPT-4.1这里真的没有了。当然也有人不那么喜欢它:https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2025%2F0515%2F59a8ff88j00swa646000ed000hs0044m.jpg&thumbnail=660x2147483647&quality=80&type=jpg
需要编程?4.1是o3和o4-mini的绝佳替代品
整整一个月前,4月15日,OpenAI发布GPT-4.1。并且上演了一出“4.1>4.5”的戏码(doge)——因为GPT-4.1比GPT-4.5强。http://dingyue.ws.126.net/2025/0515/a7b45f1cg00swa64701ygd000hs00hsm.gif
GPT-4.1共有三个杯型:
[*]GPT-4.1
[*]GPT-4.1 mini
[*]GPT-4.1 nano
以延迟为横轴,以智能为纵轴,看看这张家族较量图:最大杯GPT-4.1能力险胜GPT-4o;面对GPT-4o mini,GPT-4.1 mini则直接拿下了碾压性的优势。https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2025%2F0515%2Fb9096010j00swa647000gd000hs00dpm.jpg&thumbnail=660x2147483647&quality=80&type=jpg
具体的各方面性能得分,大家可以回顾下量子位之前发布的《GPT-4.1淘汰了4.5!全系列百万上下文,主打一个性价比》。这里只抓GPT-4.1的两大特点来回顾一下。
[*]第一,长上下文。3个型号均拥有100万tokens上下文窗口。
[*]
第二,性价比贼高,正所谓“用4%的价格,畅享GPT-4o模型品质”。
难怪官方说它贼适合用来写代码——上下文窗口大拓展,能够处理更长的代码文件,更好地维护代码连贯性,调试、错误修复以及处理多文件都能更高效,更大的上下文也有助于让模型生成更准确的代码。何况人家还便宜(叉腰)。口说无凭,咱们还是惯例拿数据说话:编码方面,GPT-4.1在衡量真实世界软件工程技能的SWE-bench Verified上得分为54.6%,比GPT-4o的分数提高了21.4%,比GPT-4.5强了26.6%。https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2025%2F0515%2Fc2b64b83j00swa646000jd000hs009rm.jpg&thumbnail=660x2147483647&quality=80&type=jpg
这里官方还直接开口“站队”:
[*]对于日常编码需求来说,GPT-4.1是o3和o4-mini的绝佳替代品。
但有网友既不信邪又想搞事情,第一个冲到OpenAI的官推下面@Grok来发问,4.1与o4-mini-high哪个更适合编程?答案如下图。大概意思就是,GPT-4.1适合综合任务,而o4-mini-high在代码编辑和创意编程方面表现出色,还更便宜。看大家具体的任务需求和预算咯~https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2025%2F0515%2Ffdf86604j00swa6470029d000hs00epm.jpg&thumbnail=660x2147483647&quality=80&type=jpg
怎么区分和挑选ChatGPT可用模型??
但不管是平台还是OpenAI官方推文底下,我们观察到一个更为普遍的现象——那就是由于OpenAI的命名方式,大多数用户对“到底有哪些模型啊”“模型间有什么区别啊”“啥时候该使用啥模型啊”,更迷茫了。真·令人抠脑壳。https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2025%2F0515%2F5d06258ej00swa647001rd000et00m8m.jpg&thumbnail=660x2147483647&quality=80&type=jpg
为此,我们罗列把付费用户目前能在ChatGPT上使用的所有模型型号丢给ChatGPT,让它自己列了个表:https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2025%2F0515%2F86f8cbadj00swa646000zd000hs00enm.jpg&thumbnail=660x2147483647&quality=80&type=jpg
成本对比也有~https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2025%2F0515%2F647fa97ej00swa646000hd000hs00awm.jpg&thumbnail=660x2147483647&quality=80&type=jpg
最后,这是关于如何挑选模型的ChatGPT亲自建议:https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2025%2F0515%2Fa0fa601dj00swa646000nd000hs005km.jpg&thumbnail=660x2147483647&quality=80&type=jpg
以及,另一个令人迷茫的事情,希望OpenAI也在免费用户的强烈建议下改进一下。免费用户的界面没有手动切换模型的选项,目前默认使用的是GPT-4o。但OpenAI说,其它模型也免费可以体验——比如这次的GPT-4.1 mini。但到底用没用上?压根不知道。什么时候也能让免费用户手动切换模型啊?或者你至少显示一下吐出结果的是哪个模型吧???求求了!参考链接:
https://x.com/OpenAI/status/1922707554745909391
https://mp.weixin.qq.com/s/kV0prigs2h4-CdUxt2PmGw
页:
[1]