基于逆向强化学习的驾驶员驾驶风格研究
尽管先进的驾驶员辅助系统(ADAS)已在汽车行业广泛采用,以提高驾驶安全性和舒适性并减轻驾驶员的驾驶负担,但它们通常不会反映不同驾驶员的驾驶风格或个性化定制。 这对于舒适和愉快的驾驶体验以及提高市场接受度可能很重要。 但是,由于驾驶员数量众多且差异很大,要理解并进一步确定驾驶员的驾驶方式具有挑战性。 先前的研究主要在对驾驶员的驾驶行为进行建模时采用了物理方法,但是,即使不是不可能,在捕获人类驾驶员的驾驶特性方面也常常受到很大的限制。 本文提出了一种基于强化学习的方法,该方法通过驾驶员与周围环境的互动学习过程来制定驾驶风格。 根据强化学习理论,可以将驾驶行为视为最大化奖励功能。 代替校准未知奖励函数以满足驾驶员的期望响应,我们尝试利用最大似然逆向强化学习(MLIRL)从人类驾驶数据中恢复它。 本文还提出了一种基于IRL的纵向驾驶辅助系统。 首先,从测试车辆收集大量的现实世界驾驶数据,并将数据分为两组分别用于训练和测试目的。 然后,将纵向加速度建模为人类驾驶活动中的玻耳兹曼分布。 奖励函数表示为一些核化基函数的线性组合。 基于训练集,使用MLIRL估算驾驶风格参数向量。 最后,开发了基于学习的纵向驾驶辅助算法,并在测试集上进行了评估。 结果表明,该方法能够较好地反映驾驶员的驾驶行为。
暂无评论