(图源:雷科技制图)
那么 X300 Pro 是否能正确识别呢?其实是可以的,X300 Pro 仅用 32 秒就回答了这个难倒 Y500 Pro 的问题,只可惜它没能准确说出这个装置是什么只是猜测这是一个小型的传感器。
(图源:雷科技制图)
跑完这三轮测试,Y500 Pro 上的 Gemma 4 E4B 并没有如我们想象中一般完全干不动,相反其实有一点点小惊喜,比如它基本不发烫、也不是很卡顿,一些简单的问题还是能正确回答出来。但问题在于,作为一个本地模型,它的回答速度实在太慢了,目前 Google AI Edge Gallery 的权限也不够,除了开关手电筒之外,做不了其他系统级操作。
这就显得很尴尬了,假如只能做到这样的水平,回答速度也这么慢、还容易出错,用户为什么还要继续用下去呢?说白了,除非真的到了彻底断网的场景,否则还真不如一个在线大模型好用。
本地模型,普通手机真的能用吗?
从前面的测试来看,Gemma4 目前确实是得旗舰手机才能达到一个「及格线」的标准,尽管还是有出错的情况,但至少速度不拉跨,不像千元机那样又慢又不准。
但回过头来看,谷歌做这个 App,背后到底在布什么局?
Google AI Edge Gallery 里有一个叫 Mobile Actions 的功能,可以把你的自然语言指令直接转化成对 Android 系统的操作,比如"帮我创建一个午餐日历事件"或者"打开手电筒",模型理解你的意图之后,直接调用系统工具去完成。
这条路其实已经在旗舰手机上开始走了,三星 Galaxy S25 系列推出了跨应用执行链,只用一句话就能让多个 App 协同工作,比如说"帮我导航到今晚开会的地方",AI 会自动从日程表里读取地址,再直接传给地图,整个过程不需要你复制粘贴,也不需要手动切换。还有此前全网爆火的豆包手机,更是实现了「手机自动驾驶」。
但这里有一个很重要的事实需要说清楚,那就是这些自动化操作,其实大部分都不是真正意义上的本地模型在跑。三星、苹果,甚至豆包手机,都是如此。
(图源:豆包手机助手)
本质上,本地模型的能力上限摆在那里,参数量越小能做的事情就越少,而用户对 AI 的期待是越来越高的,单靠本地根本撑不起那个需求。所以云端成了兜底的方案,本地模型更多是承担一些轻量、实时的任务,比如通知总结、语音识别这类对速度要求高的场景。
所以,谷歌这款 App 更像是在试水本地模型进入移动端,并且逐步开放自动化操作手机的功能权限,再让尽可能多的设备都能跑起来,然后等芯片的算力跟上来。但芯片厂商什么时候愿意把真正够用的 AI 算力下放到千元机这个价位?毕竟旗舰手机,从来都不是手机市场的销量大头。
联发科、高通这几年每代新旗舰芯片发布,都会重点强调 NPU 算力提升多少倍、AI 性能比上一代强多少,可中低端芯片往往并不重视这些,能效才是它们更在意的。因此,普通用户能不能用上真正好用的本地 AI,取决于整个产业链有没有足够的动力去推动这件事。谷歌在软件层面上开了一个口子,那么接下来就要看芯片厂商和手机厂商如何接招了。