Hugging Face公开AI代理人Open Computer Agent,能使用模型生成图片 Hugging Face昨(6)日公布会使用工具的AI代理人Open Computer Agent,能帮用户查询Google Map、维基百科或生成图片。Open Computer Agent是结合函...
Nari Labs开源具备16亿参数的文本转语音模型Dia 由两名韩国青年创立的Nari Labs本周二(4/22)通过GitHub及Hugging Face,开源了具备16亿参数的文本转语音模型Dia,宣称它不仅与Google NotebookLM播客的品质...
Pi0机器人模型集成到Hugging Face LeRobot Hugging Face宣布,创业公司Physical Intelligence开发的π0(念作Pi-Zero)机器人模型已可集成到Hugging Face的开发组件LeRobot。...
Hugging Face挑战OpenAI Deep Research,24小时打造开源智能代理系统 Hugging Face发起一项挑战,尝试在24小时内重现OpenAI最新发布的Deep Research系统,并开源其关键技术。OpenAI在2月初推出Deep Research,结合大型语言模型与...
Hugging Face逆向工程DeepSeek-R1,将打造开放推理模型Open-R1 中国人工智能公司所开发的DeepSeek-R1模型发布以来,相对低廉的硬件与训练成本就能展现高水准推理能力,在市场引发极大震荡。Hugging Face现正根据DeepSeek所公布的研究内容进行逆向...
Hugging Face发布号称业界最小多模态语言模型,推论单一图片不用1GB RAM AI资源平台Hugging Face上周公布SmolVLM二款新多模态模型,SmolVLM-256M及SmolVLM-500M,前者号称是全球最小的多模态及影词组言模型(video language ...
小模型可用更长运算时间换取更高精准度,Hugging Face发布测试阶段运算扩展的研究 由于目前大型语言模型的性能,主要依赖大量的训练计算资源,而正是这种昂贵的成本模式,驱使开发公司寻求替代方案。而Hugging Face的研究显示,通过测试阶段运算扩展(Test-Time Comput...
Hugging Face公布可在设备上执行的小型多模态模型 在7月公布SmolLM轻量语言模型后,AI应用开发平台Hugging Face本周公布轻量多模态模型SmolVLM,主打轻量、高性能,为其小型语言模型再添成员。SmolVLM为参数量20亿的小型多模态...
Hugging Face公布手机执行的小型语言模型SmolLM2 Hugging Face上周公布可在手机上执行的最新一代语言模型SmolLM2家族。这是继7月首次问世后,SmolLM家族最新版本,包括参数量135M、360M与1.7B三种规模,其中135M参数模型...
Hugging Face公布简单开发AI机器人的组件,150美元就完成 AI开发资源平台Hugging Face本周公布LeRobot机器学习开发组件,降低让企业或个人自行开发机器人的难度。LeRobot提供包含模型、数据集与PyTorch开发工具在内的机器人开发资源,目...