МОДЕЛЬ СОЦІАЛЬНО-АДАПТИВНОЇ НАВІГАЦІЇ МОБІЛЬНОГО РОБОТА З ВИКОРИСТАННЯМ МЕТОДІВ НАВЧАННЯ З ПІДКРІПЛЕННЯМ
DOI:
https://doi.org/10.28925/2663-4023.2025.29.907Ключові слова:
інформаційні технології; моделювання; методи машинного навчання; методи навчання з підкріпленням; автономні мобільні роботи; навігація мобільних роботівАнотація
Класичні алгоритми планування траєкторії, незважаючи на свою ефективність у статичних середовищах, демонструють суттєві обмеження при інтеграції в динамічне соціальне середовище. Основний недолік полягає у нездатності в режимі реального часу інтерпретувати рух людини, що призводить до непередбачуваних і потенційно небезпечних маневрів. У відповідь на ці обмеження, набули значної популярності методи навчання з підкріпленням (Reinforcement Learning, RL). Методи RL дозволяють автономному мобільному роботу самостійно формувати оптимальну стратегію поведінки шляхом безпосередньої взаємодії з оточенням та отримання зворотного зв’язку у вигляді винагород чи штрафів. Дане дослідження фокусується на методах навчання з підкріпленням та соціальних моделей поведінки з метою розробки безпечної, ефективної та соціально-адаптивної навігації для автономного мобільного робота. В цій роботі представлено модель, ключовою особливістю якої є комплексний підхід до формування поведінки агента. Запропонована модель враховує не лише базові завдання, досягнення цілі та уникнення фізичних перешкод, але й важливі аспекти соціальної взаємодії. Наукова новизна роботи полягає у розробці багатокомпонентної функції винагороди, яка інтегрує винагороди за досягнення цільової точки, уникнення зіткнень з динамічними й статичними об’єктами, а також цілеспрямовано заохочує агента дотримуватись соціально прийнятних норм. Таким чином, робот навчається не лише уникати людей, а й робити це у спосіб, який є інтуїтивно зрозумілим та комфортним для них. Кінцевою метою дослідження є створення навігаційного агента, який є не лише безпечним, але й соціально інтелектуальним. Це є кроком на шляху до повноцінної інтеграції автономних роботизованих систем у повсякденне людське середовище, оскільки успішне співіснування вимагає не лише фізичної безпеки, але й психологічного комфорту та інтуїтивної зрозумілості поведінки робота.
Завантаження
Посилання
Kruse, T., Pandey, A. K., Alami, R., & Kirsch, A. (2013). Human-aware robot navigation: A survey. Robotics and Autonomous Systems, 61(12), 1726–1743. https://doi.org/10.1016/j.robot.2013.05.007
Yin, X., Yulian, C., Cheng, M., Liu, W., Dong, W., & Yao, D. (2024). Path planning of mobile robot based on improved D* Lite_TEB algorithm. IET Conference Proceedings, 2023(49), 26–31. https://doi.org/10.1049/icp.2024.3623
Li, Y., Jin, R., Xu, X., Qian, Y., Wang, H., Xu, S., & Wang, Z. (2022). A mobile robot path planning algorithm based on improved A* algorithm and dynamic window approach. IEEE Access, 1. https://doi.org/10.1109/access.2022.3179397
Forer, S., Banisetty, S. B., Yliniemi, L., Nicolescu, M., & Feil-Seifer, D. (2018). Socially-aware navigation using non-linear multi-objective optimization. In 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) (pp. 1–8). IEEE. https://doi.org/10.1109/iros.2018.8593825
Teso-Fz-Betoño, D., Zulueta, E., Fernandez-Gamiz, U., Saenz-Aguirre, A., & Martinez, R. (2019). Predictive dynamic window approach development with artificial neural fuzzy inference improvement. Electronics, 8(9), 935. https://doi.org/10.3390/electronics8090935
Kang, S., Yang, S., Kwak, D., Jargalbaatar, Y., & Kim, D. (2024). Social type-aware navigation framework for mobile robots in human-shared environments. Sensors, 24(15), 4862. https://doi.org/10.3390/s24154862
Kivrak, H., Cakmak, F., Kose, H., & Yavuz, S. (2020). Social navigation framework for assistive robots in human inhabited unknown environments. Engineering Science and Technology, an International Journal. https://doi.org/10.1016/j.jestch.2020.08.008
Faust, A., Oslund, K., Ramirez, O., Francis, A., Tapia, L., Fiser, M., & Davidson, J. (2018). PRM-RL: Long-range robotic navigation tasks by combining reinforcement learning and sampling-based planning. In 2018 IEEE International Conference on Robotics and Automation (ICRA) (pp. 1–9). IEEE. https://doi.org/10.1109/icra.2018.8461096
Chen, Y. F., Liu, M., Everett, M., & How, J. P. (2017). Decentralized non-communicating multiagent collision avoidance with deep reinforcement learning. In 2017 IEEE International Conference on Robotics and Automation (ICRA) (pp. 1–8). IEEE. https://doi.org/10.1109/icra.2017.7989037
Kahn, G., Villaflor, A., Ding, B., Abbeel, P., & Levine, S. (2018). Self-supervised deep reinforcement learning with generalized computation graphs for robot navigation. In 2018 IEEE International Conference on Robotics and Automation (ICRA) (pp. 1–8). IEEE. https://doi.org/10.1109/icra.2018.8460655
Chen, Y. F., Everett, M., Liu, M., & How, J. P. (2017). Socially aware motion planning with deep reinforcement learning. In 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) (pp. 1–8). IEEE. https://doi.org/10.1109/iros.2017.8202312
Hanenko, L. D., & Zhebka, V. V. (2023). Analytical review of navigation issues of mobile robots in indoor environment. Telecommunication and Information Technologies, 80(3). https://doi.org/10.31673/2412-4338.2023.038087
Ngo, H. Q. T., Le, V. N., Thien, V. D. N., Nguyen, T. P., & Nguyen, H. (2020). Develop the socially human-aware navigation system using dynamic window approach and optimize cost function for autonomous medical robot. Advances in Mechanical Engineering, 12(12), 168781402097943. https://doi.org/10.1177/1687814020979430
Wang, Y., Yu, J., Kong, Y., Sun, L., Liu, C., Wang, J., & Chi, W. (2024). Socially adaptive path planning based on generative adversarial network. IEEE Transactions on Intelligent Vehicles, 1–13. https://doi.org/10.1109/tiv.2024.3478219
Singamaneni, P. T., Bachiller-Burgos, P., Manso, L. J., Garrell, A., Sanfeliu, A., Spalanzani, A., & Alami, R. (2024). A survey on socially aware robot navigation: Taxonomy and future challenges. The International Journal of Robotics Research. https://doi.org/10.1177/02783649241230562
Li, K., Lu, Y., & Meng, M. Q. H. (2021). Human-aware robot navigation via reinforcement learning with hindsight experience replay and curriculum learning. In 2021 IEEE International Conference on Robotics and Biomimetics (ROBIO) (pp. 1–7). IEEE. https://doi.org/10.1109/robio54168.2021.9739519
Ngo, H. Q. T., Le, V. N., Thien, V. D. N., Nguyen, T. P., & Nguyen, H. (2020). Develop the socially human-aware navigation system using dynamic window approach and optimize cost function for autonomous medical robot. Advances in Mechanical Engineering, 12, 168781402097943. https://doi.org/10.1177/1687814020979430
Daza, M., Barrios-Aranibar, D., Diaz-Amado, J., Cardinale, Y., & Vilasboas, J. (2021). An approach of social navigation based on proxemics for crowded environments of humans and robots. Micromachines, 12(2), 193. https://doi.org/10.3390/mi12020193
Kang, S., Yang, S., Kwak, D., Jargalbaatar, Y., & Kim, D. (2024). Social type-aware navigation framework for mobile robots in human-shared environments. Sensors, 24(15), 4862. https://doi.org/10.3390/s24154862
Hanenko, L. D., & Zhebka, V. V. (2024). Application of reinforcement learning methods for path planning of mobile robots. Telecommunication and Information Technologies, (1), 16–25. https://doi.org/10.31673/2412-4338.2024.011625
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2025 Людмила Ганенко, Вікторія Жебка

Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.