admin管理员组

文章数量:1562475

  • 框架简介
  • 细节
    • Mapping
    • Planning
  • 实验

转载请注明出处: http://blog.csdn/c602273091/article/details/78819362

框架简介

该论文【1】【4】【5】提出了CMP的框架来同时进行建图和路径规划,并且建图不是传统意义上的3D重建,使用SLAM建图这种。这里面建的图是confidence map,并且通过map的不断叠加,可以构造出局部confidence map和belief对接下来的路径规划进行指导。路径规划部分使用DAGGER的强化学习策略(imitation learning,后期归纳强化学习的时候会介绍)文中的confidence map就是类比于depth map,通过这个confidence map,就可以知道哪里有free space,哪里可以走。另外一个belief map就是对世界的uncertainty,palnnaer就会知道哪部分是observed。

整个的框架是端到端的学习,从输入当前图片(state),到建图,到路径规划输出action。整个的结构非常漂亮,简单,相比于Feifei Li的target-driven的方法,这种方法优点在于更加explainable,能够把map信息提取出来,并且在路径规划上更有优势,可以适用于更广泛的场景,但是呢这种方法基于的前提是已经知道target在哪里,只是中间地图还未建立的情况,并且呢基于寻找路径的过程中,通道比进入一个会议室更有可能到达目标。并且这种方法针对每个target需要进行模型训练,不像target-driven有那么好的通用性。文中还提到了之前的基于SLAM的方法,建图和路径规是割裂开来的,遇到无法建图的情况,整个系统就崩溃了【3】。

整个的框架有以下优点:

  • 能够解决partitially observed的环境能够解决,题外话:在强化学习中针对这种partially observed的策略一般采用MDP概率方法来处理。
  • 可求导,那么就可以进行端对端处理。
  • 计算复杂度较低,可以对接下来几个steps进行规划。

这个experiment是在simulator里面进行的,然后训练在experiment的时候也会进行transfer learnin到真实世界的机器人上。看来这是一个趋势,在simulator里面,速度更快,不需要进行控制方面的处理。到时候需要用机器人的时候,叫CMU机器人部门那里搞一个来就可以了。机器人的action space:停留原地;旋转 θ ; 前进。同时能够获取机器人的ego-motion。整个的问题输入 It = I( ε Pt ),目标:(

本文标签: 笔记mappingCognitivePlanningnavigation