Google发布FunctionGemma小模型,这是以Gemma 3 270M(2.7亿参数)为基础,专门针对工具调用需求进行微调的版本,并同步公开一套训练配方,让开发者能再依自家应用的API动作集进一步微调。Google将其设置为设备端代理的基础模型,目标是在手机等可本机运行的环境中,把自然语言指令转成可执行的API动作,同时兼顾反应时间与数据隐私。

Google提到,自Gemma 3 270M推出后,开发者最常提出的需求之一就是原生的工具调用能力,官方认为,生成式AI产品的互动界面正从单纯对话,转向能代为执行任务的代理系统。FunctionGemma主要针对单轮与并行的工具调用进行训练,但要把多步骤操作串成相依的工作流,通常仍需由外部编排流程,或依自家动作集再微调,才能控制输出行为到可预期范围。

官方强调FunctionGemma处理执行与说明两种输出场景。模型可以先产生结构化的工具调用内容,交由既有工具或操作系统能力执行,取得回应后再用自然语言整理结果回复用户。这也让FunctionGemma在系统架构上有两种常见用法,一种是作为脱机、本机的独立代理,负责处理不需联网的私人任务,另一种是作为设备端的任务分流器,先把常见指令在设备上快速处理,再把较复杂的需求转交给较大型模型,例如Gemma 3 27B。

Google以Mobile Actions评估为例说明微调的必要性,官方指出,要是以基础模型直接上场,准确率约为58%,但在针对数据进行微调后,于保留测试集上的准确率可提升到85%。

FunctionGemma的量体设计可支持像是手机与单板计算机等设备,同时沿用Gemma系列约25万规模的词汇表,以提升对JSON格式与多语输入的处理效率。官方说法是,较有效率的Token切分有助缩短串行长度,进而降低延迟并更贴近当地运算的隐私需求。为了让开发与部署更容易接上既有流程,Google也列出支持的工具链,包含训练端可用Hugging Face Transformers、Unsloth、Keras或Nvidia NeMo,部署端则可选LiteRT-LM、vLLM、MLX、Llama.cpp、Ollama、Vertex AI或LM Studio等环境。