ІДЕНТИФІКАЦІЯ ВІЙСЬКОВИХ ОБ'ЄКТІВ НА ОСНОВІ ШТУЧНИХ НЕЙРОННИХ МЕРЕЖ
DOI:
https://doi.org/10.28925/2663-4023.2025.29.912Ключові слова:
інтерактивні інтерфейси, графічний інтерфейс користувача, розпізнавання об'єктів, штучна нейронна мережаАнотація
У статті досліджуються сучасні підходи до розпізнавання військових об'єктів за допомогою нейронних мереж (ШНМ). У ній висвітлюється застосування алгоритму капсульної мережі, який покращує моделювання ієрархічних зв'язків за допомогою передових технологій. У цій статті досліджується проблема ідентифікації сучасних військових активів за допомогою штучних нейронних мереж (ШНМ). Фундаментальним аспектом автоматизованого виявлення цілей є здатність розпізнавати об'єкти на зображеннях, отриманих розвідувальними платформами, такими як дрони. У цьому контексті згорткові нейронні мережі (ЗНМ) відіграють вирішальну роль в аналізі та класифікації візуальних даних, отриманих під час аероспостереження. Хоча ЗНМ є високоефективними для ідентифікації об'єктів на основі зображень, їхня продуктивність значною мірою залежить від наявності великих навчальних наборів даних. Однак, через класифікований характер військової інфраструктури, отримання достатньої кількості навчальних даних залишається суттєвим обмеженням. Отже, недостатня кількість навчальних даних може значно знизити продуктивність ЗНМ. Для вирішення цієї проблеми було обрано багаторівневу платформу CapsNet, спеціально розроблену для розпізнавання військових об'єктів з невеликим навчальним набором. Набір даних, використаний у дослідженні, взято з https://universe.roboflow.com/robo-flow-woln1/military-object-detection-x7gfp., включає як військові, так і цивільні об'єкти. Запропонована структура демонструє значне покращення точності розпізнавання, досягаючи 96,54%. Експериментальні результати показують, що цей підхід перевершує багато інших алгоритмів за точністю розпізнавання, а також сприяє розробці інтерактивних інтерфейсів за допомогою шаблонів проектування та структур. Крім того, досліджуються автоматизовані методи перевірки інтерфейсів для виявлення потенційних проблем та помилок на ранніх стадіях розробки. Загалом, стаття пропонує детальний аналіз методів та алгоритмів, які підвищують ефективність розпізнавання об'єктів з вибраних зображень. Вона також підкреслює важливість врахування потреб користувачів та зручності під час розробки програмних продуктів.
Завантаження
Посилання
Kuang, C. (2020). User friendly: How the hidden rules of design are changing the way we live, work, and play. MCD.
Watan, S., & Shoger, S. (2018). Refactoring UI.
Unger, R., & Chandler, C. (2011). UX design: A practical guide to designing interaction experience. 336 p.
Li, S., Xu, L. D., & Zhao, S. (2018). 5G Internet of Things: A survey. Journal of Industrial Information Integration, 10, 1–9. https://doi.org/10.1016/j.jii.2018.01.005
Wroblewski, L. (2011). Mobile first. New York.
Cooper, A. (2009). Psychiatric hospital in the hands of patients.
Krug, S. (2017). Don’t make me think. New Riders.
Li, Q. (2023). Deep learning based pavement crack detection system. Journal of Physics: Conference Series. https://www.researchgate.net/publication/373417689_Deep_Learning_based_Pavement_Crack_Detection_System
Hussain, M., & Khanam, R. A. (2024). Comprehensive review of convolutional neural networks for defect detection in industrial applications. IEEE. https://ieeexplore.ieee.org/document/10589380
Mueen, M., & Abbood, M. (2025). Investigation of IoT and deep learning techniques integration for smart city applications. American Journal of Computing and Engineering, 8(1), 57–68.
Harel, J., Koch, K., & Perona, P. (2006). Graph-based visual saliency. Proceedings of NeurIPS. California Institute of Technology. https://proceedings.neurips.cc/paper_files/paper/2006/file/4db0f8b0fc895da263fd77fc8aecabe4-Paper.pdf
Achanta, R., Hemami, S., Estrada, F., & Susstrunk, S. (2009, June 20–26). Frequency-tuned salient region detection. 2009 IEEE Conference on Computer Vision and Pattern Recognition (pp. 1597–1604). Miami, FL, USA.
Fassold, H., & Bailer, W. (2022). Few-shot object detection as a semi-supervised learning problem. International Conference on Content-based Multimedia Indexing. https://www.researchgate.net/publication/364245764_Fewshot_Object_Detection_as_a_Semi-supervised_Learning_Problem
Liu, M., & Yao, P. (2024). Robust classification of incomplete time series with noisy labels. 2024 27th International Conference on Computer Supported Cooperative Work in Design (CSCWD). https://www.researchgate.net/publication/382154918_Robust_Classification_of_Incomplete_Time_Series_with_Noisy_Labels
Stephens, B. (2011). Push recovery control for force-controlled humanoid robots. https://www.researchgate.net/publication/266907694_Push_Recovery_Control_for_Force-Controlled_Humanoid_Robots
Pontil, M., & Theodoros, E. (2001). Support vector machines: Theory and applications. Lecture Notes in Computer Science, 249–257.
Mikolov, T., & Chen, K. (2013). Efficient estimation of word representations in vector space. https://www.researchgate.net/publication/234131319_Efficient_Estimation_of_Word_Representations_in_Vector_Space
Simonyan, K., & Zisserman, A. (2015). Very deep convolutional networks for large-scale image recognition. https://arxiv.org/abs/1409.1556
He, K., & Sun, J. (2016). Deep residual learning for image recognition. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (pp. 770–778). https://www.cvfoundation.org/openaccess/content_cvpr_2016/papers/He_Deep_Residual_Learning_CVPR_2016_paper.pdf
Huang, G. (2018). Densely connected convolutional networks. https://arxiv.org/abs/1608.06993
Hays, J., & Maire, M. (2014). Microsoft COCO: Common objects in context. Lecture Notes in Computer Science. https://www.researchgate.net/publication/263002356_Microsoft_COCO_Common_Objects_in_Context
Talusani, H. (2020). Detection of military targets from satellite images using deep convolutional neural networks. 2020 IEEE 5th International Conference on Computing Communication and Automation.
Zhou, L. (2023). A multi-scale object detector based on coordinate and global information aggregation for UAV aerial images. Remote Sensing, 15(14), 3468. https://www.mdpi.com/2072-4292/15/14/3468
Sabur, S., Frost, N., & Hinton, J. (2017). Dynamic routing between capsules. Advances in Neural Information Processing Systems (NeurIPS).
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2025 Антон Костюк, Сергій Зайцев, Владислав Василенко, Лілія Зайцева

Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.