首页 资讯 正文

人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作

体育正文 160 0

人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作

人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作

人形机器人(jīqìrén)如何像(xiàng)人类一样自然运动?如何通过语言指令让机器人理解并执行复杂动作? 5月29日上午,在上海张江科学会堂举办的2025张江具身智能开发者大会暨2025国际(guójì)人形机器人技能大赛上,国家地方共建人形机器人创新中心(以下简称“国地中心”)联合复旦大学(fùdàndàxué)未来信息创新学院,正式发布了全球首款(shǒukuǎn)生成式人形机器人运动大模型(móxíng)—— “龙跃(lóngyuè)”(MindLoongGPT)。 龙跃大模型以“自然语言驱动”为核心,构建了从多模态输入到高保真动作生成的(de)完整闭环,颠覆(diānfù)传统运动控制范式。也就是说,用户无需学习专业术语(zhuānyèshùyǔ)或操作复杂软件,仅(jǐn)需像与人类对话一样(yīyàng)发出指令,例如“以优雅的姿势递上一杯咖啡”、“挥手致意”或上传一段参考视频,龙跃大模型即可自动解析语义并生成对应的连贯动作,并支持通过追加指令实时(shíshí)调整细节。这一能力,在(zài)教育、服务机器人领域具有颠覆性意义。 动作部署 本文图均为 国地(guódì)中心 供图 当前市场中的动作生成模型往往存在(cúnzài)两大痛点:一是依赖高算力(gāosuànlì)硬件,难以低成本部署;二是生成结果机械(jīxiè)呆板,缺乏可控性。据介绍,龙跃大模型具有四大核心技术优势: 一是多模态(mótài)交互、低门槛(ménkǎn)驱动(qūdòng)。MindLoongGPT支持文本、语音、图像等多模态输入,用户只需用自然语言驱动,模型即可“一切行动(xíngdòng)听指挥”。传统方法依赖专业参数调整的桎梏被打破,真正实现“人人可用”。 二是拟真度与时序一致性(yízhìxìng)双突破。通过将人体(réntǐ)动作视为“时序语言”,MindLoongGPT对动作序列逐帧建模,精准捕捉动作间的连续性,解决了长序列生成(shēngchéng)中的僵硬、跳跃问题,生成的跑步、舞蹈等动作不仅流畅(liúchàng)自然,更保留真实人体的惯性节奏。 三是结构生成与细节优化并重。模型采用分阶段(fēnjiēduàn)生成策略,从全局姿态到局部关节角度均实现毫米(háomǐ)级精度控制。 四是轻量化设计,赋能广泛场景。在保证性能(xìngnéng)的前提下,MindLoongGPT模型体积被压缩至同类型产品的1/3,可在教育(jiàoyù)机器人、智能穿戴设备等嵌入式(qiànrùshì)平台实时运行,为产业落地铺平道路。 据(jù)了解,目前(mùqián)国地中心在张江拥有5000平方米训练场,集采集、测试、训练功能于一体,102台数采机器人可支撑每天3万条机器人数据(shùjù)采集、地面真值测试、人体数据采集、仿生数据采集。MindLoongGPT具有7B的模型参数大小,支持text2motion,、motion2text、motion2motion多任务,生成(shēngchéng)更丰富(fēngfù)的动作。通过MindLoongGPT生成特技动作运动轨迹,借助全身跟踪小模型,从而可以(kěyǐ)在青龙(qīnglóng)机器人上(shàng)实现丰富的全身动作。 通过“龙跃”MindLoongGPT生成特技动作运动轨迹,可以在青龙人形(rénxíng)机器人上实现(shíxiàn)丰富的全身动作 通过“龙跃”MindLoongGPT生成(shēngchéng)特技动作运动轨迹,可以在青龙人形机器人上实现丰富的(de)全身动作 国地中心5月(yuè)29日同时(tóngshí)宣布,将开放MindLoongGPT的开发者测试版本,并联合(liánhé)张江科学城打造“人形机器人创新应用孵化基地”,为合作伙伴提供(tígōng)技术赋能、数据共享与算力支持,首批合作企业包括多家(duōjiā)全球500强科技公司与顶尖高校研究院,将共同探索人形机器人在元宇宙、智能制造等领域的深度融合。 (本文来自澎湃新闻(xīnwén),更多原创资讯请下载“澎湃新闻”APP)
人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作

欢迎 发表评论:

评论列表

暂时没有评论

暂无评论,快抢沙发吧~