МЕТОД НАВЧАННЯ АВТОНОМНИХ МОБІЛЬНИХ РОБОТІВ НА ОСНОВІ DRL ТА CURRICULUM LEARNING

Автор(и)

DOI:

https://doi.org/10.28925/2663-4023.2025.30.994

Ключові слова:

інформаційні технології, методи машинного навчання, методи навчання з підкріпленням, Deep Reinforcement Learning, Curriculum Learning, автономні мобільні роботи, навігація мобільних роботів, ROS 2, Gazebo.

Анотація

Робота присвячена актуальній задачі підвищення ефективності соціально-адаптивної навігації автономних мобільних роботів у динамічних середовищах із присутністю людей. Застосування методів глибокого навчання з підкріпленням (DRL) для вирішення цієї задачі ускладнюється високою розмірністю простору станів, складністю формалізації соціальних норм у функції винагороди та нестабільністю процесу навчання. Для подолання цих викликів запропоновано метод, що інтегрує алгоритм Proximal Policy Optimization (PPO) зі стратегією навчання за програмою Curriculum Learning (CL). Розроблена навчальна програма поєднує поступове ускладнення середовища (від статичних перешкод до середовища із рухомими агентами-людьми) та поетапне формування функції винагороди із додаванням соціальних компонентів. Ключовою особливістю є перехід між етапами, який базується на аналізі стабільності політики. Експериментальне дослідження проведено в розробленому симуляційному середовищі Gazebo із використанням мобільного робота Turtlebot3 Waffle та фреймворку ROS 2 Humble. Поетапне навчання дозволяє автономному мобільному роботу спочатку засвоїти базові навички уникнення статичних перешкод, потім — динамічних, і на завершальному етапі — враховувати соціальні норми взаємодії з людьми. Вхідними даними для системи є дані з LiDAR, стан робота та людей, а також цільова позиція. Результатом методу є оптимізована стохастична політика поведінки, що дозволяє автономному мобільному роботу приймати безпечні, ефективні та соціально прийнятні навігаційні рішення. Проведено порівняльний аналіз запропонованого методу із стандартним алгоритмом PPO. Отримані результати підтверджують, що запропонований метод дозволяє формувати ефективну політику соціально-адаптивної навігації, вирішуючи проблеми нестабільності та повільної збіжності.

Завантаження

Дані завантаження ще не доступні.

Посилання

Hanenko, L., Storchak, K., Shlianchak, S., Vorokhob, M., & Pitaichuk, M. (2025). SLAM in navigation systems of autonomous mobile robots. Cybersecurity Providing in Information and Telecommunication Systems 2025, (3991), 173–182. https://ceur-ws.org/Vol-3991/

West, J., Maire, F., Browne, C., & Denman, S. (2020). Improved reinforcement learning with curriculum. Expert Systems with Applications, 158, 113515. https://doi.org/10.1016/j.eswa.2020.113515

Uppuluri, B., Patel, A., Mehta, N., Kamath, S., & Chakraborty, P. (2025). CuRLA: Curriculum learning based deep reinforcement learning for autonomous driving. In 17th International Conference on Agents and Artificial Intelligence (pp. 435–442). SCITEPRESS. https://doi.org/10.5220/0013147000003890

Freitag, K., Ceder, K., Laezza, R., Akesson, K., & Haghir Chehreghani, M. (2024). Sample-efficient curriculum reinforcement learning for complex reward functions. arXiv preprint. https://doi.org/10.48550/arXiv.2410.16790

Li, K., Lu, Y., & Meng, M. Q. H. (2021). Human-aware robot navigation via reinforcement learning with hindsight experience replay and curriculum learning. In 2021 IEEE International Conference on Robotics and Biomimetics (ROBIO). IEEE. https://doi.org/10.1109/robio54168.2021.9739519

Florensa, C., Held, D., Wulfmeier, M., Zhang, M., & Abbeel, P. (2017, October). Reverse curriculum generation for reinforcement learning. In Conference on Robot Learning (pp. 482–495). PMLR.

Zhu, K., & Zhang, T. (2021). Deep reinforcement learning based mobile robot navigation: A review. Tsinghua Science and Technology, 26(5), 674–691. https://doi.org/10.26599/tst.2021.9010012

Gao, J., Ye, W., Guo, J., & Li, Z. (2020). Deep reinforcement learning for indoor mobile robot path planning. Sensors, 20(19), 5493. https://doi.org/10.3390/s20195493

Hanenko, L. D., & Zhebka, V. V. (2024). Application of reinforcement learning methods for mobile robot path planning. Telecommunication and Information Technologies, 1, 16–25. https://doi.org/10.31673/2412-4338.2024.011625

Soviany, P., Ionescu, R. T., Rota, P., & Sebe, N. (2022). Curriculum learning: A survey. International Journal of Computer Vision. https://doi.org/10.1007/s11263-022-01611-x

Wang, X., Chen, Y., & Zhu, W. (2021). A survey on curriculum learning. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1. https://doi.org/10.1109/tpami.2021.3069908

Anca, M., Thomas, J. D., Pedamonti, D., Hansen, M., & Studley, M. (2023). Achieving goals using reward shaping and curriculum learning. In Lecture Notes in Networks and Systems (pp. 316–331). Springer Nature Switzerland. https://doi.org/10.1007/978-3-031-47454-5_24

Schulman, J., Wolski, F., Dhariwal, P., Radford, A., & Klimov, O. (2017). Proximal policy optimization algorithms. arXiv preprint. https://doi.org/10.48550/arXiv.1707.06347

Hanenko, L., & Zhebka, V. (2025). Model of socially adaptive navigation of a mobile robot using reinforcement learning methods. Cybersecurity: Education, Science, Technology, 1(29). https://doi.org/10.28925/2663-4023.2025.29.907

Hanenko, L., & Zhebka, V. (2025). Development of a navigation system for an autonomous mobile robot using ROS 2. Cybersecurity: Education, Science, Technology, 4(28), 498–510. https://doi.org/10.28925/2663-4023.2025.28.824

Narvekar, S., Peng, B., Leonetti, M., Sinapov, J., Taylor, M. E., & Stone, P. (2020). Curriculum learning for reinforcement learning domains: A framework and survey. Journal of Machine Learning Research, 21(181), 1–50.

Downloads


Переглядів анотації: 22

Опубліковано

2025-10-26

Як цитувати

Ганенко, Л., & Бушма, О. (2025). МЕТОД НАВЧАННЯ АВТОНОМНИХ МОБІЛЬНИХ РОБОТІВ НА ОСНОВІ DRL ТА CURRICULUM LEARNING. Електронне фахове наукове видання «Кібербезпека: освіта, наука, техніка», 2(30), 568–582. https://doi.org/10.28925/2663-4023.2025.30.994