<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0">
  <channel>
    <title>开发者论坛 - OpenLoong - 场景训练</title>
    <link>https://forum.openloong.org.cn/forum.php?mod=forumdisplay&amp;fid=7</link>
    <description>Latest 20 threads of 场景训练</description>
    <copyright>Copyright(C) 开发者论坛 - OpenLoong</copyright>
    <generator>Discuz! Board by Discuz! Team</generator>
    <lastBuildDate>Fri, 10 Apr 2026 21:36:54 +0000</lastBuildDate>
    <ttl>60</ttl>
    <image>
      <url>https://forum.openloong.org.cn/static/image/common/logo_88_31.gif</url>
      <title>开发者论坛 - OpenLoong</title>
      <link>https://forum.openloong.org.cn/</link>
    </image>
    <item>
      <title>零侵入跨网络通信：基于WebRTC的透明隧道方案 loong_remote_communication</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=287</link>
      <description><![CDATA[在机器人及分布式设备体系中，跨网络环境下的通信与接口调用始终是一个关键问题：设备往往部署在内网或复杂网络结构中，传统方案要么依赖繁琐的网络配置（如端口映射、VPN），要么引入中心化中转服务，带来成本高、稳定性与扩展性受限等问题。针对这一痛点，我们设计了 ...]]></description>
      <category>场景训练</category>
      <author>早睡</author>
      <pubDate>Wed, 01 Apr 2026 07:39:43 +0000</pubDate>
    </item>
    <item>
      <title>英伟达2月世界模型双子星 DreamZero 和 DreamDojo</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=278</link>
      <description><![CDATA[DreamZero 和 DreamDojo 是 NVIDIA GEAR 团队（Jim Fan、Yuke Zhu、Joel Jang 等）在 2026 年 2 月同期发布的两个互补项目，它们不是版本迭代关系，而是同一\&quot;后 VLA 范式\&quot;技术体系下的双轨制解决方案，通过世界模型（World Models）实现真正的物理智能

核心关系：互补 ...]]></description>
      <category>场景训练</category>
      <author>豆腐机器人</author>
      <pubDate>Sun, 22 Feb 2026 03:07:22 +0000</pubDate>
    </item>
    <item>
      <title>从感知到工具链——实现具身智能机器人的闭环与实用化</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=235</link>
      <description><![CDATA[让机器人不仅会“动作”，还能真正理解环境并做出合理动作，是具身智能的核心目标，这不仅涉及传感器和算法，更需要从数据采集到模型部署的完整工具链来支撑。之前的文章为大家介绍了大小脑协同与算控一体化如何提升机器人的思考与反应能力，本篇文章将着重介绍具身智能 ...]]></description>
      <category>场景训练</category>
      <author>Thea</author>
      <pubDate>Fri, 10 Oct 2025 08:32:45 +0000</pubDate>
    </item>
    <item>
      <title>RoboSplatte：基于3D高斯物件的机器人操作演示数据生成新方法</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=170</link>
      <description><![CDATA[在机器人学习中，模仿学习（Imitation Learning）因其高效性而广受欢迎，但其效果极大依赖于高质量演示数据的规模与多样性。传统的数据收集方法往往成本高昂且难以覆盖各种环境变化，导致训练出的视觉运动策略在复杂场景中的泛化能力受限。为了解决这一问题，本文介绍了 ...]]></description>
      <category>场景训练</category>
      <author>胡言乱语阿瑞基</author>
      <pubDate>Sun, 27 Apr 2025 07:42:58 +0000</pubDate>
    </item>
    <item>
      <title>FADE：结合强化学习与一致性策略，提升视觉语言动作模型在机器人任务中的性能</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=169</link>
      <description><![CDATA[随着大模型在视觉语言理解领域的飞速发展，如何将这些强大的预训练视觉语言模型（VLM）高效应用于机器人操作任务，成为当前机器人学界与工业界的重要挑战。传统的监督微调方法高度依赖有限且可能不一致的人类演示数据，往往难以在复杂、动态变化的接触环境中实现鲁棒且 ...]]></description>
      <category>场景训练</category>
      <author>胡言乱语阿瑞基</author>
      <pubDate>Sun, 27 Apr 2025 07:34:47 +0000</pubDate>
    </item>
    <item>
      <title>别再瞎动啦！这个AI教机器人怎么“优雅做事”</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=168</link>
      <description><![CDATA[你有没有看过机器人抓个杯子能抓偏三次、开个抽屉像拆家现场？别怪它笨，其实它根本没弄明白“抓”和“开”这两个动作到底是什么意思。就像有人教你跳舞却没教节拍——你脚再灵也只能乱蹦。但好消息来了！科研大佬们造出一个新模型，名叫 RoboACTS CLIP，这是一个专门为 ...]]></description>
      <category>场景训练</category>
      <author>胡言乱语阿瑞基</author>
      <pubDate>Fri, 18 Apr 2025 02:18:56 +0000</pubDate>
    </item>
    <item>
      <title>【双手也能优雅起舞？一招搞定“机械臂打架”的终极法宝！】</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=167</link>
      <description><![CDATA[你有没有想过，两个机械臂一起工作，会不会吵架？别笑，这可不是段子。在现实中，双手机器人操作就像两位舞者在狭小的舞台上共舞，既要优雅协作，还不能踩到对方的脚（嗯，或者说，撞到对方的肘子）。然而，这对“机械双胞胎”可没那么好伺候。协调两只手臂同时工作，不 ...]]></description>
      <category>场景训练</category>
      <author>胡言乱语阿瑞基</author>
      <pubDate>Fri, 18 Apr 2025 02:11:34 +0000</pubDate>
    </item>
    <item>
      <title>Lora：构建数据高效的机器人视觉语言策略模型</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=165</link>
      <description><![CDATA[在通用人工智能发展的浪潮下，将大规模视觉语言模型（VLM）应用于机器人控制，正逐渐成为推动智能体能力泛化的重要路径。然而，现有VLM多用于图像理解或文本生成，其直接迁移到机器人控制任务仍存在巨大挑战，尤其是在机器人行为演示数据极为有限的实际场景中。为解决这 ...]]></description>
      <category>场景训练</category>
      <author>胡言乱语阿瑞基</author>
      <pubDate>Tue, 15 Apr 2025 05:47:05 +0000</pubDate>
    </item>
    <item>
      <title>面向接触密集型任务的机器人新范式：结合视觉与触觉的反应扩散策略（RDP）</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=164</link>
      <description><![CDATA[在机器人日益走向实际应用的今天，如何让机器像人类一样“有感觉”地完成复杂任务，成为一个关键技术挑战。特别是在诸如剥蔬菜皮、装配、双手搬运等接触密集型任务中，人类凭借视觉和触觉的高度协同，能够在极短时间内调整动作、精确控制接触力，实现高效且精细的操作。 ...]]></description>
      <category>场景训练</category>
      <author>胡言乱语阿瑞基</author>
      <pubDate>Tue, 15 Apr 2025 05:40:41 +0000</pubDate>
    </item>
    <item>
      <title>让机器人“看懂世界，再行动” —— 一种融合视觉语言理解与预测控制的新型机器人规划</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=163</link>
      <description><![CDATA[随着机器人逐步走出实验室，进入工厂、医院、仓库甚至家庭环境，如何让机器人在复杂、动态、非结构化的场景中安全、高效地完成任务，成为当前智能控制领域的重要挑战。近期，一篇引人注目的研究提出了一种创新性框架：Vision-Language Model Predictive Control（VL-MPC ...]]></description>
      <category>场景训练</category>
      <author>胡言乱语阿瑞基</author>
      <pubDate>Fri, 11 Apr 2025 03:54:27 +0000</pubDate>
    </item>
    <item>
      <title>人类教机器人用工具？——一种低成本高效的模仿学习新方法</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=161</link>
      <description><![CDATA[我们人类天生擅长使用工具：用筷子夹菜、用锤子钉钉子、用铲子翻炒菜肴……这些看似简单的动作背后，其实蕴藏着复杂的感知与协调能力。那么，能不能让机器人也学会这些技能呢？能不能像我们一样“看一眼就会做”？这是机器人研究领域一个长期追求的目标。最近，一种全新 ...]]></description>
      <category>场景训练</category>
      <author>胡言乱语阿瑞基</author>
      <pubDate>Thu, 10 Apr 2025 06:46:53 +0000</pubDate>
    </item>
    <item>
      <title>【具身智能】facebook home-robot环境搭建</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=76</link>
      <description><![CDATA[facebook home-robot环境搭建
文章目录
[*]facebook home-robot环境搭建
[*]
[*]1. mamba安装
[*]2. 获取源码并安装
[*]3. 问题
[*]
[*]3.1 No module named \'home_robot_hw\'
[*]3.2 AttributeError: module ‘numpy’ has no attribute ‘float’.
[*]3.3 vcs 命令找不 ...]]></description>
      <category>场景训练</category>
      <author>用户e4ce1956d5ce</author>
      <pubDate>Fri, 18 Oct 2024 03:10:57 +0000</pubDate>
    </item>
    <item>
      <title>震惊！从控制的角度理解具身智能，到底是怎么回事？</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=74</link>
      <description><![CDATA[伺服系统“伺服（Servo）”——词源于希腊语“奴隶”，意即“伺候”和“服从”。人们想把“伺服机构”当成一个得心应手的驯服工具，服从控制信号的要求而动作：在讯号来到之前，转子静止不动；讯号来到之后，转子立即转动；当讯号消失，转子能即时自行停转。由于它的“ ...]]></description>
      <category>场景训练</category>
      <author>胡言乱语阿瑞基</author>
      <pubDate>Thu, 17 Oct 2024 01:51:27 +0000</pubDate>
    </item>
    <item>
      <title>具身智能之万里长征最后一步，什么叫做规划执行？</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=69</link>
      <description><![CDATA[规划执行是具身智能中至关重要的一环，涉及将系统的感知、推理转化为具体的行动策略，并最终付诸实践。它涵盖了从目标设定、路径规划到任务执行的整个过程。在具身智能系统中，规划执行不仅依赖于环境的感知，还需要系统具备在多变和不确定环境中实时调整和优化行动的能 ...]]></description>
      <category>场景训练</category>
      <author>胡言乱语阿瑞基</author>
      <pubDate>Mon, 14 Oct 2024 01:25:02 +0000</pubDate>
    </item>
    <item>
      <title>具身智能之智能交互到底有啥用呢？让我们浅聊一下</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=56</link>
      <description><![CDATA[智能交互是具身智能中的关键组成部分，指的是智能系统通过语音、手势、触觉等多种方式与人类或其他系统进行沟通和合作。这一过程不仅涉及信息的传递，更重要的是信息的理解、处理和反馈。智能交互是机器感知和环境理解的延伸，它使得智能系统能够更加自然和直观地与人类 ...]]></description>
      <category>场景训练</category>
      <author>胡言乱语阿瑞基</author>
      <pubDate>Fri, 20 Sep 2024 02:17:12 +0000</pubDate>
    </item>
    <item>
      <title>具身智能之认知推理为什么这么重要？来谈谈我的理解</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=55</link>
      <description><![CDATA[认知推理是具身智能系统中最为复杂且关键的部分，指的是系统在环境理解和智能交互的基础上，通过逻辑推理、常识判断以及决策制定来处理复杂问题和执行任务的能力。认知推理赋予了智能系统“思考”的能力，使其不仅能够感知世界，还能基于感知结果进行深层次的分析和决策 ...]]></description>
      <category>场景训练</category>
      <author>胡言乱语阿瑞基</author>
      <pubDate>Fri, 20 Sep 2024 02:15:41 +0000</pubDate>
    </item>
    <item>
      <title>到底什么是具身智能？谈谈个人理解</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=32</link>
      <description><![CDATA[一、引言：随着人工智能（AI）的发展，具身智能（Embodied Intelligence）逐渐成为研究的前沿。具身智能是一种集成环境理解、智能交互、认知推理与规划执行于一体的系统化方案，旨在让机器人等智能体能够在物理世界中自主感知、决策和行动。本文将从具身智能的定义、技 ...]]></description>
      <category>场景训练</category>
      <author>胡言乱语阿瑞基</author>
      <pubDate>Mon, 09 Sep 2024 06:47:29 +0000</pubDate>
    </item>
    <item>
      <title>具身智能是如何感知环境？让我带你初步了解</title>
      <link>https://forum.openloong.org.cn/forum.php?mod=viewthread&amp;tid=31</link>
      <description><![CDATA[环境理解与机器感知的关键作用环境理解是具身智能的核心组成部分之一，指的是智能系统通过感知设备（如摄像头、激光雷达、超声波传感器等）对其所处的环境进行实时感知和解析的能力。这一过程是具身智能系统得以自主行动的基础，也是实现复杂任务的前提条件。环境理解的 ...]]></description>
      <category>场景训练</category>
      <author>胡言乱语阿瑞基</author>
      <pubDate>Mon, 09 Sep 2024 06:46:13 +0000</pubDate>
    </item>
  </channel>
</rss>