
Google在Flutter生态系推出GenUI SDK for Flutter,目标不是再做一个聊天框,而是提供一套让大语言模型(LLM)把文本回应转换成可操作画面的生成式UI工作流程,作为协调层负责在人类用户、Flutter小工具(Widget)程序代码库与AI代理之间交换资讯,让应用程序能维持品牌风格动态生成界面。目前GenUI SDK for Flutter以Alpha测试版形式在pub.dev开放。
传统聊天机器人多半只回传长段文本,当任务涉及多个条件、比较或决策时,用户往往要在对话记录中来回拉动画面,体验并不理想。GenUI要处理的是让模型输出不只是一串字,而是一份UI描述,交由前端SDK渲染成卡片、图像、表单、滑杆或日期选择器,用户改以点击与调整参数进行对话,把复杂互动简化成具体画面。
官方举例,用户输入“帮我规划东京旅游”之后,应用程序会将这个提示以及可用小工具目录送往AI代理。模型在生成行程建议文本的同时,也通过GenUI提供的工具,组出一棵适合呈现内容的UI结构树,GenUI SDK接收回应后进行反串行化,把这棵树还原为Flutter小工具并渲染之后,SDK会依描述中的标注区分出资讯呈现组件、版面配置组件与可互动控件,并据此创建最终界面。
用户的点击或输入可以触发新一轮请求,由代理依最新状态回传更新后的内容与界面,形成一个持续运转的人机协作循环。
这套流程构建在一组Google的生成式UI工具与协议,用来描述LLM要呈现的画面布局与组件,可套用在不同前端框架。GenUI SDK for Flutter采用A2UI作为UI串行化格式,相当于让Flutter成为A2UI的其中一个实例端,之后同一套代理逻辑在其他平台上也有机会重复利用。
GenUI目前支持多种内容生成器模式,包含直接调用Google Gemini API、通过Firebase AI Logic在客户端访问Gemini,以及使用A2UI与后端代理服务器对接。团队也预留界面让企业自行撰写桥接器,串联自家LLM或其他云计算模型,只要能回传符合A2UI格式的描述,就能沿用同一套Flutter前端与工作流程。
官方提到后续会考虑与Agent Development Kit集成,添加更多主流LLM与后端框架的官方支持,并通过逐步渲染降低等待时间,甚至让标准界面组件能在模型尚未回应完成前先出现在画面上。更进一步的构想包括让模型组合出整个画面与导航逻辑,甚至以Dart字节码实例由服务器主导的UI架构,以及与Genkit等开源AI框架结合。











