美媒新技术让机器人舞姿翩翩
据美国趣味科学网站2月6日报道,逼真的人类动作让机器人能够完成种类繁多的任务,并且适应对它们而言并非专门适用的环境。得益于一个跟踪人类动作的新软件构架,人形机器人很快会以十分逼真的方式运动——甚至能像我们一样翩翩起舞。由加利福尼亚大学圣迭戈分校、伯克利分校以及麻省理工学院和英伟达公司开发的ExBody2软件是一项新技术,它将使人形机器人能够根据对人类的详细扫描及运动跟踪可视化处理,做出逼真的动作。研究人员希望,未来的人形机器人能够更准确地模拟人类动作,从而执行种类远为繁多的任务。例如,这种训练方法可以帮助机器人执行需要精细动作的任务(如从货架上取下物品)或小心翼翼地在人或其他机器周围移动。ExBody2软件的工作原理是根据对人类的动作捕捉扫描做出模拟动作,并把它们转化为机器人可使用的运动数据以便予以复制。该构架可以利用机器人复制复杂动作,从而可使机器人的动作变得不那么僵硬,并能在无需大量再训练的情况下适应不同任务。这一切都将利用“强化学习”技术进行训练。“强化学习”是机器学习的一个子门类,即用海量数据对机器人进行“喂养”,以确保其在任何给定情况下都能采取最佳路径。研究人员所模拟的有效输出将被判定某个正或负的得分,以“奖励”该模型输出理想结果(这意味着在不损害机器人稳定性的情况下精确复制动作)。该软件构架还可以拍摄简短的运动视频(例如几秒钟的跳舞视频)并合成出新的、供参考的动作视频,以使机器人能够完成持续时间更长的动作。在一段上传至视频分享网站YouTube的视频中,一台接受了ExBody2软件训练的机器人与一名人类参试者一起跳舞、挥拳和锻炼。此外,这台机器人还利用上海交通大学机器视觉与智能团队开发的一套名为“人体网格恢复解析-神经混合反向运动学”(HybrIK)的附加代码,对一名研究人员的动作进行实时模仿。目前,ExBody2软件的数据集大多集中在上半身的运动。在2024年12月17日上传到预印本文献库(ArXiv)中的论文中,开发该软件的研究人员解释说,这是由于担心引入过多的下半身动作会导致机器人不稳定。这些研究人员的数据集包含2800多个动作,其中1919个来自“运动捕捉表面形状档案”(AMASS)数据集。这是一个规模庞大的人类动作数据集,包含1.1万多种人体动作和40小时详细动作数据,以供非商业性深度学习使用,即利用海量数据对神经网络进行训练以识别或复制动作模式。在已经证明ExBody2软件让人形机器人复制人类动作的有效性后,该研究团队现在将转向解决在无需人工管理数据集以确保软件只使用适合信息的情况下,取得同样结果的问题。研究人员认为,未来自动化数据集收集将有助于这一过程的顺畅运行。