金融科技公司在数字化转型浪潮中面临特殊挑战:如何在严格监管环境下安全部署人工智能技术,同时维持创新步伐?Robinhood的经验提供重要参考,展示如何在不牺牲安全性前提下成功扩展大型语言模型(Large Language Model, LLM)应用。

金融服务业处理全球最敏感的个人数据:财务资讯。当人工智能技术进入此领域,数据安全与隐私保护成为首要考量。Robinhood作为金融科技创新先驱,同样面临严格监管框架内安全部署AI的挑战。

自2013年创立以来,Robinhood以提供免佣金交易服务闻名,成为首家完全于云计算服务托管的证券行。该公司AI及机器学习(Machine Learning, ML)平台使命明确:通过强大AI与ML抽象化赋予开发人员能力,同时为高端用户提供高端工具,专注简化从实验到生产流程。

此平台目前支持多项关键业务应用,包括诈骗调查、文件处理、代理工作流程、数据分析、文本转SQL功能、通信应用及市场推广内容生成等。安全设计始终是首要考量,Amazon Web Services(AWS)云计算架构提供坚实基础。

Robinhood每日有超过80名诈骗调查员需手动撰写超过300份案件结论,传统流程耗时30至60分钟,难以维持叙述一致性与品质。为解决此难题,团队导入由Amazon Bedrock预留输送量模式(Provisioned Throughput Mode)及Claude Sonnet模型驱动的解决方案,系统能于数秒内将调查员原始笔记转化为结构化结论草稿。

安全设计是此解决方案核心,团队实施多重防护机制:仅在表单变更时激活生成叙述按钮、限制每个浏览器工作阶段两次点击、鼓励调查员手动完善自动生成内容,并设立1至5分评分反馈机制持续改良系统。此人机协作模式大幅提升效率,同时确保人类专家对最终结果的监督,精准平衡自动化与安全性需求。

Robinhood的AI架构历经关键演变,反映金融企业在AI部署的成熟路径。初期采用Amazon Bedrock预留输送量模式提供专用模型单元,确保推论过程隔离性。团队更配置Amazon Virtual Private Cloud(Amazon VPC)端点,通过AWS PrivateLink在AWS网络内部安全传输所有流量。

此架构面临四项挑战:需提前数月预测流量模式并承诺固定模型单元数量、共享模型单元可能出现资源竞争问题、新LLM通常在随选API先发布,以及六个月承诺期限制采用多样模型的灵活性。

面对挑战,Robinhood转向更灵活架构——Amazon Bedrock随选API(on-demand API)。此转变由零日数据留存协议确保安全性,同时解锁更大弹性与扩展能力。特别值得注意的是Amazon Bedrock跨区域推论(cross region inference)功能:将分配配额在推论设置文件区域提高一倍、动态路由流量至多区域无需复杂客户端负载均衡,并在维持相同VPC安全性前提下,提供最佳可用性与增强高用量期间弹性。

Robinhood的LLM网关成为AI架构核心枢纽,兼容多种SDK处理输入翻译工作,验证字符大小等参数确保请求合规高效,所有请求和回应记录至脱机分析表,提供稳健审计关注能力。此设计让开发团队能使用偏好技术堆栈,同时通过中央化服务访问LLM。

考量金融服务的严格合规要求,网关内置个人可识别数据(Personal Identifiable Information, PII)过滤服务,运用Microsoft Presidio API自动侦测及编辑输入输出中的敏感数据。网关同时支持备用模型机制,当主要模型失效或超出容量限制时,系统无缝切换至次要备用模型,例如从OpenAI API转至Llama模型。

成本控制方面,网关自动计算每项请求成本,允许团队设置预算并按项目实施限制。此精细控制使Robinhood能在维持高性能同时,严格管理AI相关支出。

预期2025年,Robinhood计划进一步强化AI平台,创建让团队更快创新、更精准可靠的生态系统。团队正引入内置工具进行模型与提示分析,同时创建跨平台管理数据的统一框架,确保合规不阻碍创新。

网关将增强动态模型路由及微调选项功能,确保合适模型处理适当请求。批次推论渠道的推出将提升大规模任务处理性能,而提示游乐场(prompt playground)开发计划则提供安全实验空间,让团队能在生产数据上切换模型与调整参数。

Robinhood经验展示金融科技公司如何在严格安全要求下有效扩展AI应用。其LLM网关与架构演进过程提供宝贵参考模型,证明通过AWS云计算服务能创建既安全又灵活的AI基础设施。对任何考虑在金融领域部署AI技术的机构而言,此经验传递明确指引:安全与创新不必对立,通过精密架构设计,企业可兼得两者优势。在数据隐私与AI应用间取得平衡,不仅是合规需求,更是赢得客户信任的关键。