返回列表 发布新帖

开源推介|NanoLoong:一台小机器人,带你走近具身智能的大实验!

36 0
发表于 3 天前 | 查看全部 阅读模式
在过去两年里,人形机器人和具身智能的研究正以惊人的速度推进,但现实并不总是那么理想。许多实验需要的硬件价格高昂,装配过程复杂,甚至有些系统完全闭源,研究者和爱好者常常面临“想做却做不了”的困境。基于这样的背景,在青龙家族的延展方向上,国家地方共建人形机器人创新中心(以下简称“国地中心”)推出了 NanoLoong——它是这个家族中更轻量、更亲民的一员,目标是把研究门槛降下来,让更多人能够真正参与到双足机器人和具身智能的探索中。


NanoLoong 的思路很直接:做轻的地方就不做重,原封闭的地方就选择开放,应简化的地方就尽量顺畅。NanoLoong 目前已在 OpenLoong 社区开源,通过提供可复现的硬件材料、软件资源与安装步骤,这个项目让机器人爱好者、课程教学人员和科研人员都能以更低的成本和更易掌控的难度进行实验与创新:一步步搭建自己的机器人,理解运动与控制的基本原理,并在此基础上继续扩展与改进。


NanoLoong 并不是一台固定的机器,而是一种“可以一起动手的实验”,我们希望通过这个项目激发更多人对机器人技术的兴趣与探索。



项目定位与设计原则   
NanoLoong 的核心设计其实可以用三句话来概括。

第一,它追求的是“简单”。没有复杂的传动链条,也不用昂贵的定制零件,主体结构完全可以通过 3D 打印和碳板切割完成,零部件标准化,装配步骤清晰,让个人甚至小型实验室都能轻松动手。

第二,它坚持“低成本”。整机 BOM 的目标控制在 2 万元以内,电机、控制器等关键部件大部分都能直接买到现货,兼容度高,也方便后续扩展。实际测试下来,整机装配成本能稳定在 1.5 万元左右,把“入场费”降到足够友好。

第三,它从一开始就面向“具身算法开发”。软件栈基于 OmniRobLab 框架,硬件驱动与伺服的对接被大幅简化,让研究者把主要精力放在感知、控制、强化学习等算法的训练与评测,而不是困在底层接口里。

这三点结合起来,就是 NanoLoong 的路线:低门槛、强扩展、算法优先。



多传感器融合:让机器人“看见”与“感知”世界   
NanoLoong是一个软硬件一体化的实验项目,它大致可以分成5个层面来理解:

结构设计
参考了小型双足机器人的构型,在保证稳定性的同时保留了足够的表达性,既能做桌面级的演示,也能承担算法验证的任务。


NanoLoong机器人

执行部分
腿部有多自由度驱动(单腿 5 个自由度),头部和颈部也具备独立的自由度,可以完成步态、平衡和视线控制,同时还支持FPV头部操控,通过调整头部角度就能在室内场景中进行第一视角的探索和查看。

感知部分
主要依靠机体和头部的两台深度相机来采集环境数据,必要时还可以加上Mid360或者利用深度相机派生出的视觉里程计来做导航与建图,再结合IMU等基础传感器做状态估计。

计算部分
采用了双单元架构,把控制和感知分开:一个单元专注伺服控制和状态估计,另一个负责视觉处理和学习推理,互不干扰,这样可以确保实时性和可扩展性。

算法与交互
它既有内置的动画示教与编译流程,也支持强化学习(比如PPO、AMP)和Python的二次开发,还能结合语音和灯光与大语言模型协同,做到语音对话和任务触发。

整体来看,这种自下而上的分层设计让用户可以从任意一层切入,比如有人可能更在意结构改装,有人专注于控制器移植,也有人直接做导航建图、模仿或强化学习训练,甚至尝试多模态交互,而不会因为上下游的复杂耦合而停滞不前。

机械与制造:为可复现与快速改装而生   
在实际的实验与教学中,硬件往往是影响可复现性与改装灵活性的关键。NanoLoong在机械与制造层面以“低门槛复现、快速迭代改装”为核心设计原则,一方面要让双足机器人具备应有的姿态表现力和结构稳定性,另一方面又尽可能降低制造和维护的难度与成本。其形态、材料工艺、模块化设计与选型策略的每一环节都围绕“容易获取、容易替换、容易升级”展开,让大家能够在相同硬件基础上快速完成从初期组装、课程演示到高阶定制改造的全链路闭环。

构型选择
NanoLoong参考了业界表达性良好的小型双足形态,身体—腿—头部的层级清晰,兼顾姿态控制与“拟人式”互动。示意图中可见的单侧腿部为 5 自由度、颈部为 2 自由度的设计思路,既覆盖了步态/转向/抬头俯仰/注视等基本动作,又保持了零件数量与控制复杂度的可控。



迪士尼机器人



迪士尼机器人结构

制造工艺
NanoLoong的硬件制造主要依靠3D打印和碳板切割,零件可以快速迭代,装配过程不需要复杂的减速器或传动链条,拆装和维护都比较容易,也方便在课程教学或比赛环境中进行快速修复。

模块化
NanoLoong整体的模块化布局同样考虑到了灵活性,关节单元、传感组件和电子仓的分区比较清晰,这让替换不同规格的电机、增加新传感器或者改造安装位都变得直观而简单。

成本友好
为了避免采购上的障碍,NanoLoong的选型策略尽量使用现货件,这样无论是初次搭建还是后续的备件管理,都能降低因为地区差异带来的不确定成本。


通过这些设计,NanoLoong把“容易获取、容易替换、容易升级”的理念落在了细节里,让不同背景的用户都能在同一套硬件基础上,从最初的组装,到课程演示,再到高阶的定制改造,完整地走完一个闭环。

运动控制与步态生成:从模型到学习的“可切换式”管线   
在运动控制与步态生成上,NanoLoong设计了一条“可切换式”的管线,让传统的基于模型的方法和数据驱动的学习方法能够在同一个体系里并行存在。目前已经尝试将强化学习的控制流程跑通,开发者可以按需求加入传统模型控制:

基于模型的控制(Model-based)
对于习惯经典控制的开发者,可以依赖状态估计来融合IMU、编码器和视觉数据,得到质心位置、足端接触情况和整体姿态,再通过步态相位机生成摆动与支撑的周期以及足端目标轨迹,最后借助逆运动学或全身控制,把这些高层目标转换为具体的关节角度或力矩指令,同时考虑接触约束来保持整体稳定性。这种方法的优势在于可解释、可调参,特别适合课程教学和作为基线对比。

基于学习的控制(Learning-based)
如果选择基于学习的路线,NanoLoong同样提供了支持:开发者可以通过模仿学习,利用双深度相机录制的人体或机器人演示数据来训练策略,使其模仿期望的动作与技能;也可以在仿真环境中采用PPO等强化学习方法,训练行走、站立、跨越等策略,让机器人在保持正确动作的同时具备更好的鲁棒性。得益于OmniRobLab提供的接口抽象,训练好的策略能够比较清晰地迁移到实机上,开发者只需要处理少量的传感延迟、接触噪声和动力学偏差,就能完成从仿真到真实的对接。

动画示教与编译
此外,系统还支持动画示教与编译的功能,用户可以通过直接示教录制动作并进行时间标定,再由系统自动编译与播放,这对于表情动作、展演流程或者人机交互脚本尤其方便。在与强化学习或模仿学习结合时,这些示教动作甚至可以成为先验动作库或安全回退的策略。

整体来看,这种模型与学习的灵活切换,使得NanoLoong既能作为教学中的入门工具,也能承载研究中的复杂实验。

为什么 NanoLoong 适合做“具身智能入门—进阶”的统一平台?
在具身智能的学习路径中,许多开发者都会遇到一道不小的断层:入门级的平台往往功能过于单一,只能做一些基础的演示,难以支撑高阶的算法实验;而高阶平台虽然强大,但价格昂贵、采购困难,维护成本也高。NanoLoong以统一平台的思路打通了这一过程,通过软硬一体化设计、兼容多种算法范式、支持多模态扩展,并具备从演示到科研的平滑迁移能力,让初学者能够在同一硬件上完成控制基础训练,又为资深研究者保留了算法探索与跨领域融合的空间,从而真正实现了“一个平台,贯通入门到进阶”的目标。

从硬到软的一致性
让学习和研究能够在同一个连续的框架里展开。它在硬件层面强调低成本和可复现,解决了“买不到、装不起”的现实问题,同时通过双单元计算架构把实时控制和学习推理分开,确保系统的可用性。

从控制到学习的兼容性
在算法上,它既能运行传统的、可解释的基线方法,比如逆运动学或全身控制,也能无缝接入强化学习和模仿学习,让开发者能够灵活地在不同范式之间切换,从而支持课程教学和研究实验的A/B对比。

从单机到多模态的扩展性
进一步的扩展性同样被考虑进来:导航、语音、灯光以及与大语言模型的接口都保持开放,使得机器人可以从“能走会看”逐步走向“能理解、会协作”。

从演示到研究的可迁移
在迁移能力上,系统还提供了动画示教、第一视角(FPV)查看和数据采集管线,这些工具降低了数据制作的门槛,为行为克隆、AMP等方法提供了真实的训练来源。

这样一来,初学者能够在同一套硬件上完成控制基础训练,而有经验的开发者则可以直接在其上探索更复杂的算法与跨模态协作,真正实现了从入门到进阶的贯通。

开源计划与社区共建:让更多人参与到机器人技术的探索中
NanoLoong不仅是一台技术先进的小机器人,更是一个已经完全开源在OpenLoong社区的项目。目前,开发团队已经将硬件设计文件、软件源代码以及完整的安装说明全部开放,大家可以免费下载、复现并基于其进行二次开发。这种开放策略不仅降低了入门门槛,也为学术研究、个人创作、企业原型验证等不同场景提供了极高的可用性和灵活性。


面向使用者的典型路线   
对使用者来说,NanoLoong并不是一个只能“摆在架子上看”的机器人,而是能一步步陪你成长的实验伙伴。

入门(约 2 周)
最初阶段主要是熟悉硬件和基础流程。在这个阶段,你会完成整机装配和初步的标定,让传感器、关节与控制单元协同工作。接下来,可以跑通一次完整的强化学习模型训练与部署,把仿真环境里学到的走路策略迁移到实体机器人上。这一过程中,常见的任务是进行sim2real误差对齐,处理传感延迟、摩擦差异、接触噪声等问题,并通过鲁棒性测试验证机器人是否能在现实地面上稳定行走。


进阶(约 2–4 周)
当基本运动稳定后,就可以开始拓展感知能力。通过接入深度相机或激光雷达,机器人可以完成室内的地图构建与定位(SLAM),并实现点到点的自主移动。在这个阶段,你不再只是操作一个“会走路的机器”,而是让它具备初步的环境理解能力,能够识别周边空间并规划路径,迈出从控制实验到任务执行的第一步。

研究(约 4–8 周)
进入研究阶段后,可以重点转向动作和算法的优化,比如尝试改进行走和站立策略,让机器人在不同地形、不同扰动下都能保持稳定。除此之外,还可以探索更复杂的动作算法,比如倒地后的自恢复、深蹲训练,或者通过动作编排实现舞蹈等高度协调的技能。这一阶段通常涉及RL策略的进一步调优、模仿学习的引入,以及不同控制范式的对比实验,适合科研项目与论文研究。

应用延伸(长期探索)
在掌握控制与感知的基础上,你可以尝试把机器人放进更复杂的人机交互场景中。例如对接语音模块和大语言模型,让“自然语言 → 行动”的端到端链条跑通,使机器人可以通过对话理解指令并完成任务。或者探索更前沿的主题,比如安全约束机制、人机共处时的友好交互等,把它作为研究具身智能与人类协作的实验平台。

把“可玩、可学、可研”做成同一台机器人
NanoLoong不是把“低成本”当作唯一目标,而是把 “可复现的工程路径 + 面向算法的系统设计” 当成核心竞争力。它让更多人以可承受的成本走进双足与具身智能:

在结构与装配层面,用得起、装得出、修得快

在算法与交互层面,跑得稳、学得动、连得上;

在生态与社区层面,看得见彼此的实验、复得出彼此的结果。

我们将持续更新示例与基线,欢迎课程团队、研究者与爱好者加入到NanoLoong的共建中来,一起把“具身智能”从论文与 Demo,变成人人都能动手验证、自由改造、快速传播的开放工程。





本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

回复

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright © 2025 OPENLOONG. All Rights Reserved. Powered by Discuz!
  • 关注B站
  • 关注抖音
  • 关注微信公众号
Copyright © 2025 开发者论坛 - OpenLoong 版权所有 All Rights Reserved.
关灯 在本版发帖 返回顶部
快速回复 返回顶部 返回列表