ПОРІВНЯЛЬНИЙ АНАЛІЗ МЕТОДІВ POLICY-BASED ТА VALUE-BASED RL ДЛЯ ЛОКАЛЬНОГО ПЛАНУВАННЯ РУХУ БПЛА

Автор(и)

DOI:

https://doi.org/10.28925/2663-4023.2026.32.1099

Ключові слова:

БПЛА, Автономна навігація, Навчання з підкріпленням, PPO, SAC, динамічне середовище

Анотація

У роботі проведено порівняльне дослідження ефективності двох фундаментальних архітектур глибокого навчання з підкріпленням, а саме – Policy-based (на прикладі PPO) та Value-based (на прикладі SAC), для вирішення задачі локальної навігації БПЛА в умовах стохастичної невизначеності. Експериментальне моделювання, виконане у середовищі PyFlyt з урахуванням турбулентного вітру, змінної маси дрона та руху цілі, виявило критичні розбіжності у роботі алгоритмів. Встановлено, що алгоритм SAC, попри високу швидкість навчання та ефективність використання даних, формує вразливі політики з низьким показником успішності (63,2%) через помилки оцінки функції цінності в динамічних станах. Натомість метод PPO забезпечив формування стійкої стратегії керування з успішністю 97,1% та генерацію оптимальних траєкторій без осциляцій. Результати підтверджують, що для задач безперервного керування в непередбачуваних середовищах методи прямої оптимізації політики є більш ефективними, оскільки дозволяють уникнути ефекту «Reward Hacking» та краще генералізують фізичні закономірності польоту.

Завантаження

Дані завантаження ще не доступні.

Посилання

AlMahamid, F., & Grolinger, K. (2022). Autonomous unmanned aerial vehicle navigation using reinforcement learning: A systematic review. Engineering Applications of Artificial Intelligence, 115, 105321. https://doi.org/10.1016/j.engappai.2022.105321

Zhou, Y., Shu, J., Zheng, X., Hao, H., & Song, H. (2022). Real-time route planning of unmanned aerial vehicles based on improved soft actor-critic algorithm. Frontiers in Neurorobotics, 16, 1025817. https://doi.org/10.3389/fnbot.2022.1025817

Tang, C., Abbatematteo, B., Hu, J., Chandra, R., Martín-Martín, R., & Stone, P. (2025). Deep reinforcement learning for robotics: A survey of real-world successes. In Proceedings of the AAAI Conference on Artificial Intelligence (Vol. 39). https://doi.org/10.1609/aaai.v39i27.35095

Oyinlola, S., Subedi, N., & Sarkar, S. (2025). Reinforcement learning for autonomous point-to-point UAV navigation. arXiv. https://doi.org/10.48550/arXiv.2509.13943

Bălaşa, R.-I., Bîlu, M., & Iordache, C. (2022). A proximal policy optimization reinforcement learning approach to unmanned aerial vehicles attitude control. Land Forces Academy Review, 27, 400–410. https://doi.org/10.2478/raft-2022-0049

Chen, S., Mo, Y., Wu, X., Xiao, J., & Liu, Q. (2024). Reinforcement learning-based energy-saving path planning for UAVs in turbulent wind. Electronics, 13(16), Article 3190. https://doi.org/10.3390/electronics13163190

Tai, J. J., Wong, J., Innocente, M., Horri, N., Brusey, J., & Phang, S. K. (2023). PyFlyt—UAV simulation environments for reinforcement learning research. arXiv. https://doi.org/10.48550/arXiv.2304.01305

Geronel, R. S., Botez, R. M., & Bueno, D. D. (2023). Dynamic responses due to the Dryden gust of an autonomous quadrotor UAV carrying a payload. The Aeronautical Journal, 127(1307), 116–138. https://doi.org/10.1017/aer.2022.35

Raffin, A., Hill, A., Gleave, A., Kanervisto, A., Ernestus, M., & Dormann, N. (2021). Stable-Baselines3: Reliable reinforcement learning implementations. Journal of Machine Learning Research, 22(268), 1–8.

Skalse, J., Howe, N. H. R., Krasheninnikov, D., & Krueger, D. (2022). Defining and characterizing reward hacking. In Proceedings of the 36th International Conference on Neural Information Processing Systems (NeurIPS 2022).

Liu, H., Shen, Y., Zhou, C., Zou, Y., Gao, Z., & Wang, Q. (2024). TD3-based collision-free motion planning for robot navigation. In Proceedings of the 6th International Conference on Communications, Information System and Computer Engineering (CISCE 2024) (pp. 247–250). https://doi.org/10.1109/CISCE62493.2024.10653233

Downloads


Переглядів анотації: 0

Опубліковано

2026-03-26

Як цитувати

Трембовецький, Р., & Розломій, І. (2026). ПОРІВНЯЛЬНИЙ АНАЛІЗ МЕТОДІВ POLICY-BASED ТА VALUE-BASED RL ДЛЯ ЛОКАЛЬНОГО ПЛАНУВАННЯ РУХУ БПЛА. Електронне фахове наукове видання «Кібербезпека: освіта, наука, техніка», 4(32), 767–774. https://doi.org/10.28925/2663-4023.2026.32.1099