auto_survey/outputs/outputs_20230707_202302/survey_chinese.md
学习算法
几篇重要的论文为机器人控制的强化学习(RL)算法的发展做出了贡献。Mnih等人\citep{mnih2013playing}首次引入了成功的深度RL模型,该模型可以直接从高维感知输入中学习控制策略。Lillicrap等人\citep{lillicrap2015continuous}提出了一种基于确定性策略梯度的演员-评论家算法,可以在连续动作空间中操作。Haarnoja等人\citep{haarnoja2018soft}提出了软演员-评论家算法,这是一种离线RL算法,在连续控制任务上实现了最先进的性能。He等人\citep{he2020reinforcement}基于演员-评论家结构开发了一种RL控制策略,用于柔性两连杆操纵器系统中的振动抑制。Liu等人\citep{liu2021deep}解决了机器人操纵控制中深度RL算法的样本效率和泛化性的挑战。
评估RL算法在机器人控制环境中的性能并比较不同方法是至关重要的。Thrun等人\citep{thrun2002probabilistic}提出了利用不确定真实环境统计数据指导机器人的规划和导航算法。Nasiriany等人\citep{nasiriany2021augmenting}引入了操纵基元增强的RL(MAPLE),这是一个将RL算法与行为基元库结合的框架,用于操纵任务。Parker-Holder等人\citep{parker-holder2022automated}对自动化RL(AutoRL)领域进行了调查,并为不同研究领域提供了分类法。Majumdar等人\citep{majumdar2019a}讨论了RL的可扩展半定规划方法,包括低秩近似解和增广Lagrangian技术。Zhang等人\citep{zhang2021learning}提出了一种逆RL方法,用于从专家演示中恢复可变阻抗策略和奖励函数。
RL已成功应用于机器人控制的各个领域。Li等人\citep{li2021reinforcement}开发了一个无模型RL框架,用于在仿真中训练行走策略并将其转移到真实的双足机器人上。Kim等人\citep{kim2021review}对软机器人中的机器学习方法进行了分类,包括软传感器、执行器和可穿戴机器人。Katz等人\citep{katz2019mini}使用凸模型预测控制(cMPC)在Mini Cheetah机器人上生成动态步态。Siekmann等人\citep{siekmann2021blind}演示了用于Cassie机器人在类似楼梯的地形上进行鲁棒运动的模拟到真实的RL方法。Wang等人\citep{wang2021data}提出了一种用于复杂海洋环境中无人表面舰船的数据驱动RL控制方案。
尽管取得了成功,但RL在机器人控制中仍面临挑战和限制。Gao等人\citep{gao2020reinforcement}引入了灵活策略迭代(FPI)来解决RL控制器中的样本效率和稳定性问题。Tran等人\citep{tran2019safety}提出了一种前向可达性分析方法,用于验证具有RL控制器的网络控制系统的安全性。Wang等人\citep{wang2017safety}提出了多机器人系统中无碰撞行为的安全屏障证书。Liu等人\citep{liu2021deep}讨论了机器人操纵控制中深度RL算法的样本效率和泛化性的挑战。Margolis等人\citep{margolis2022rapid}为MIT Mini Cheetah机器人提出了一种端到端学习的控制器,强调了对干扰的鲁棒性的需求。
未来的研究方向可以进一步推动RL在机器人控制领域的发展。Zhang等人\citep{zhang2021learning}探索了在机器人控制中使用迁移学习的方法。Yang等人\citep{yang2020combating}讨论了多智能体RL在解决机器人领域的风险和挑战方面的潜力。Hespanha等人\citep{hespanha2007a}回顾了网络控制系统的估计、分析和控制器合成。Morgan等人\citep{morgan2021model}提出了一种混合基于模型和无模型RL方法,称为模型预测演员-评论家(MoPAC)。Kober等人\citep{kober2013reinforcement}对机器人领域的RL进行了全面调查,强调了潜在的未来研究方向。
总之,本相关工作部分讨论了RL算法、机器人控制的基准测试、应用领域、挑战和限制以及未来的研究方向的关键出版物。这些工作为RL在机器人控制领域的最新发展做出了贡献,并为进一步推进该领域的发展铺平了道路。