МЕТОД БІОМЕТРИЧНОЇ АУТЕНТИФІКАЦІЇ ПЕРСОНАЛУ ОБ’ЄКТІВ КРИТИЧНОЇ ІНФРАСТРУКТУРИ ЗА ЗОБРАЖЕННЯМ ОБЛИЧЧЯ ТА РАЙДУЖНОЮ ОБОЛОНКОЮ ОКА ІЗ ЗАСТОСУВАННЯМ НЕЙРОМЕРЕЖЕВИХ ЗАСОБІВ

Автор(и)

DOI:

https://doi.org/10.28925/2663-4023.2025.29.866

Ключові слова:

біометрична автентифікація, метод біометричної автентифікації, розпізнавання особи, зображення обличчя, райдужна оболонка ока, нейронна мережа, об’єкт критичної інфраструктури

Анотація

Широке впровадження нейромережевих засобів біометричної аутентифікації за зображеннями обличчя та райдужною оболонкою ока на об’єктах критичної інфраструктури дозволило підвищити рівень безпеки та оперативності ідентифікації персоналу. Водночас сучасні вимоги зумовлюють потребу в підвищенні стійкості до спуфінг-атак, адаптивності до завад реального середовища, а також у розширенні функціональності для врахування психоемоційного стану персоналу в момент проходження автентифікації. Традиційні нейромережеві методи, що базуються на нейронних мережах з монолітною архітектурою обмежені в реалізації цих вимог через недостатню гнучкість і складність адаптації до варіативних умов відеореєстрації. Тому в даній статті запропоновано метод біометричної автентифікації персоналу об’єктів критичної інфраструктури за зображенням обличчя та райдужною оболонкою ока із застосуванням нейромережевих засобів. Метод реалізує багатокрокову адаптивну обробку відеопотоку та комплексне виконання процедур, необхідних для ефективної автентифікації в умовах варіативності параметрів зображення. Етапи методу структуровано як послідовність процедур, що відповідають типовим завданням біометричної автентифікації, кожне з яких реалізується окремою нейромережею. Уперше в межах єдиної архітектури забезпечено багаторівневий аналіз ознак спуфінг-атак із урахуванням візуальних артефактів обличчя, артефактів зовнішнього оточення, динаміки параметрів живучості та емоційного стану. Запропоновано механізм автоматичного оцінювання показників відображення, динамічного формування множини придатних до обробки зображень і їх попередньої обробки для підвищення якості. Фільтрація завад здійснюється шляхом семантичної сегментації та поелементного маскування піксельних областей, що дозволяє виключати з обробки ділянки із тінями, перекриттями чи сторонніми об’єктами. Ключовою особливістю є цілеспрямоване використання доступних і апробованих наперед навчених нейромережевих моделей з відкритим кодом (FaceMeshV2, Visual Transformer, DeepPixBiS, Siamese Network, Two_channel Networks, MobileNet), адаптованих до умов відеореєстрації на об’єктах критичної інфраструктури. За попередніми оцінками, застосування адаптивної обробки відеопотоку та багаторівневого аналізу спуфінг-атак дозволяє підвищити точність виявлення спуфінгу на 25–35 % і щонайменше в 1,5 раза скоротити час розробки системи на основі відкритих моделей.

Завантаження

Дані завантаження ще не доступні.

Посилання

Abraham J., Paul V. “An imperceptible spatial domain color image watermarking scheme”. Journal of King Saud University – Computer and Information Sciences. 2019. Vol. 31 (1), pp. 125-133.

Adithya U., Nagaraju C. “Object Motion Direction Detection and Tracking for Automatic Video Surveillance”, International Journal of Education and Management Engineering (IJEME), Vol.11, No.2, pp. 32-39, 2021. DOI: 10.5815/ijeme.2021.02.04.

Badrinarayanan V., Kendall A., Cipolla R. “SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation”. URL: http://arxiv.org/abs/1511.0051 (accessed October 12, 2022).

Cherrat, Rachid Alaoui, Hassane Bouzahir. “Score Fusion of Finger Vein and Face for Human Recognition Based on Convolutional Neural Network Model”. International Journal of Computing, 2020. 19, 11-19.

Dai, J., He, K., & Sun, J. (2016). Instance-aware semantic segmentation via multi-task network cascades. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 3150-3158). https://doi.org/10.48550/arXiv.1512.04412.

Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X., Unterthiner, T., ... & Houlsby, N. An image is worth 16x16 words: Transformers for image recognition at scale. 2020. arXiv preprint arXiv:2010.11929. https://doi.org/10.48550/arXiv.2010.11929

Jun Shen. “Motion detection in color image sequence and shadow elimination”. Visual Communications and Image Processing. 2014. Vol. 5308, pp. 731-740.

Keresh, A., & Shamoi, P. Liveness detection in computer vision: Transformer-based self-supervised learning for face anti-spoofing. 2024. IEEE Access. https://doi.org/10.48550/arXiv.2406.13860

Kong T., et al. “FoveaBox: Beyound Anchor-Based Object Detection”, IEEE Trans. Image Process. 29 (2020), pp. 7389–7398.

Korchenko O., & Tereikovskyi O. Semantic segmentation of facial images in biometric authentication systems of personnel of critical infrastructure facilities . Electronic Professional Scientific Journal «Cybersecurity: Education, Science, Technique». 2025. 4(28), 385–399. https://doi.org/10.28925/2663-4023.2025.28.816

Korchenko O., Tereikovskyi I., Ziubina R., Tereikovska L., Korystin O., Tereikovskyi O., Karpinskyi V. Modular Neural Network Model for Biometric Authentication of Personnel in Critical Infrastructure Facilities Based on Facial Images. Applied Sciences. 2025, 15, 2553. https://doi.org/10.3390/app15052553.

Korchenko O., Tereikovskyi O. Model of the facial recognition procedure model and the iris of the eye during biometric authentication of personnel of critical infrastructure facilities using neural network tools. Information security. 2024. V. 26, № 1, pp. 157-170. DOI: https://doi.org/10.18372/2410-7840.26.18839

Liu, X.-P., Li, G., Liu, L., Wang, Z. “Improved YOLOV3 target recognition algorithm based on adaptive eged optimization”. Microelectron. Comput. 2019. Vol. 36, pp. 59–64.

Prilianti, K. R et al. “Non-destructive Photosynthetic Pigments Prediction using Multispectral Imagery and 2D-ЗНМ”. International Journal of Computing. 2021. 20(3), pp. 391-399.

Reja, S. A., Rahman, M. M. “Sports Recognition using Convolutional Neural Network with Optimization Techniques from Images and Live Streams”. International Journal of Computing, 2021. 20(2), pp. 276-285.

Ronneberger O., Fischer P., Brox T. “U-Net: Convolutional Networks for Biomedical Image Segmentation”. Medical Image Computing and Computer-Assisted Intervention (MICCAI), 2015. Vol.9351, pp. 234-241.

Senocak A. et al. “Part-based player identification using deep convolutional representation and multi-scale pooling”. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, 2018, pp. 1732-1739.

Shkurat O. et al. “Image Segmentation Method Based on Statistical Parameters of Homogeneous Data Set”. Advances in Intelligent Systems and Computing. 2020. Vol. 902, pp. 271–281.

Simonyan K., Zisserman A. “Very deep convolutional networks for large-scale image recognition”. ArXiv1409.1556 Cs. (2019). http://arxiv.org/abs/1409.1556 (accessed October 11, 2022).

Tereikovska L., Tereikovskyi I. Evaluation and correction of visual characteristics of images. Science, technology and innovation in the context of global transformation : Scientific monograph. Riga, Latvia : Baltija Publishing, 2024. P. 205-225. ISBN 978-9934-26-499-3 DOI: https://doi.org/10.30525/978-9934-26-499-3-11

Tereikovskyi I., Korchenko O., Bushuyev S., Tereikovskyi O., Ziubina R. & Veselska O. A Neural Network Model for Object Mask Detection in Medical Images. International Journal of Electronics and Telecommunication. 2023. Vol. 69(1), pp. 41–46. https://doi.org/10.24425/ijet.2023.144329

Tereikovskyi I., Hu Z., Chernyshev D., Tereikovska L., Korystin O., & Tereikovskyi O.. The method of semantic image segmentation using neural networks. International Journal of Image, Graphics and Signal Processing. 2022. Vol. 10(6), 1,14(6), pp. 1–14. https://doi.org/10.5815/ijigsp.2022.06.0110.

Downloads


Переглядів анотації: 9

Опубліковано

2025-09-26

Як цитувати

Корченко, О., & Терейковський, О. (2025). МЕТОД БІОМЕТРИЧНОЇ АУТЕНТИФІКАЦІЇ ПЕРСОНАЛУ ОБ’ЄКТІВ КРИТИЧНОЇ ІНФРАСТРУКТУРИ ЗА ЗОБРАЖЕННЯМ ОБЛИЧЧЯ ТА РАЙДУЖНОЮ ОБОЛОНКОЮ ОКА ІЗ ЗАСТОСУВАННЯМ НЕЙРОМЕРЕЖЕВИХ ЗАСОБІВ. Електронне фахове наукове видання «Кібербезпека: освіта, наука, техніка», 1(29), 92–106. https://doi.org/10.28925/2663-4023.2025.29.866

Статті цього автора (авторів), які найбільше читають