МОЖЛИВОСТІ ШТУЧНОГО ІНТЕЛЕКТУ ДЛЯ АУДИТУ ТА УПРАВЛІННЯ РИЗИКАМИ КІБЕРБЕЗПЕКИ

Автор(и)

DOI:

https://doi.org/10.28925/2663-4023.2025.29.872

Ключові слова:

штучний інтелект, аудит кібербезпеки, управління ризиками, виявлення аномалій, машинне навчання

Анотація

У статті досліджуються можливості використання штучного інтелекту (ШІ) в аудиті та управлінні ризиками кібербезпеки в умовах цифрової трансформації. Традиційні підходи до аудиту інформаційної безпеки, засновані на ручному зборі даних і періодичних перевірках, показують не достатню ефективність в сучасних цифрових системах. Вони обмежені в масштабуванні, чутливі до людського фактору та не здатні забезпечити постійний моніторинг. Інтеграція технологій штучного інтелекту дозволяє здійснювати автоматичне виявлення аномалій, проактивну оцінку ризиків, генерацію рекомендацій, а також аналіз великих масивів як структурованих, так і неструктурованих даних (журнали подій, мережевий трафік, текстові звіти тощо).

Розглянуто приклади застосування моделей машинного навчання та глибокого навчання в практиках аудиту, включно з використанням рекурентних і згорткових нейронних мереж, алгоритмів кластеризації, а також методів обробки природної мови для виявлення порушень політик безпеки. Важливу роль відіграє розвиток концепції ситуаційної обізнаності в мережі, що дозволяє прогнозувати поведінку системи та потенційні загрози на основі історичних і реальних даних. Окрім технічних досягнень, у дослідженні також розглянуто етичні виклики використання штучного інтелекту в аудиті, зокрема: непрозорість алгоритмів, ризик упередженості, загрози конфіденційності та труднощі з відповідальним делегуванням рішень. Підкреслено важливість розробки пояснюваних моделей штучного інтелекту та запровадження етичних принципів, які регулюють застосування автоматизованих систем прийняття рішень у галузі кібербезпеки. Досліджено що штучний інтелект виступає двосторонньою технологією: його можна застосовувати як для забезпечення захисту, так і для здійснення атак. У роботі наведено приклади реальних інцидентів, у яких зловмисники використовували генеративні моделі для реалізації шахрайських дій. Метою дослідження є виявлення як потенціалу, так і обмежень застосування ШІ в аудиті кібербезпеки, а також формування рекомендацій щодо впровадження технологій ШІ з урахуванням технічних, етичних і нормативних вимог. Автори зазначають що найбільш дієвим підходом визнано гібридну модель аудиту, яка поєднує штучний інтелект із людською експертизою. Це забезпечує вищу точність, оперативність і адаптивність у реагуванні на сучасні кіберзагрози, що є критично важливим для зміцнення кіберстійкості організацій в умовах сучасного цифрового середовища.

Завантаження

Дані завантаження ще не доступні.

Посилання

Vasan, D., Alazab, M., Wassan, S., et al. (2020). IMCFN: Image-based malware classification using fine-tuned convolutional neural network architecture. Computer Networks, 171, Article 107138. https://doi.org/10.1016/j.comnet.2020.107138

Buczak, A. L., & Guven, E. (2016). A survey of data mining and machine learning methods for cyber security intrusion detection. IEEE Communications Surveys & Tutorials, 18(2), 1153–1176. https://doi.org/10.1109/COMST.2015.2494502

Authorea. (n.d.). AI-driven cyber risk assessment: Predicting and preventing data breaches with machine learning. https://www.authorea.com/users/898703/articles/1274531-ai-driven-cyber-risk-assessment-predicting-and-preventing-data-breaches-with-machine-learning

Sommer, R., & Paxson, V. (2010). Outside the closed world: On using machine learning for network intrusion detection. In 2010 IEEE Symposium on Security and Privacy (pp. 305–316). IEEE. https://doi.org/10.1109/SP.2010.25

https://www.sciencedirect.com/science/article/abs/pii/S016740481930118X?via%3Dihub

Anjum, N., & Chowdhury, M. R. (2024). Revolutionizing cybersecurity audit through artificial intelligence automation: A comprehensive exploration. International Journal of Advanced Research in Computer and Communication Engineering (IJARCCE).

Phanishlakarasu. (n.d.). AI for cybersecurity audits: Enhancing transparency and accountability. Medium. https://medium.com/@phanishlakarasu/ai-for-cybersecurity-audits-enhancing-transparency-and-accountability-a4572a59b436

Expert.com.ua. (2024). Meta планує автоматизувати багато оцінок ризиків продуктів. https://expert.com.ua/200293-meta-planue-avtomatyzuvaty-bahato-ocinok-ryzykiv-produktiv.html

Chen, T., Wang, Z., & Zhang, C. (2021). Deep learning for cyber security intrusion detection: Approaches, datasets, and comparative study. Journal of Information Security and Applications, 58, 102726. https://doi.org/10.1016/j.jisa.2021.102726

Roy, A., Dey, N., & Ashour, A. S. (Eds.). (2022). Cyber security and digital forensics: Challenges and future trends. Springer Nature. https://doi.org/10.1007/978-981-19-2591-3

Xu, W., Wang, L., & Zhao, Y. (2020). Intrusion detection system based on deep belief network and probabilistic neural network. Neural Computing and Applications, 32, 11265–11273. https://doi.org/10.1007/s00521-019-04552-2

Zhou, Y., & Sharma, A. (2022). A survey of NLP techniques for cybersecurity applications. ACM Computing Surveys, 55(3), Article 50. https://doi.org/10.1145/3491200

Doshi-Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning. arXiv preprint. https://arxiv.org/abs/1702.08608

Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1, 389–399. https://doi.org/10.1038/s42256-019-0088-2

McMahan, H. B., Moore, E., Ramage, D., Hampson, S., & y Arcas, B. A. (2017). Communication-efficient learning of deep networks from decentralized data. In Artificial Intelligence and Statistics (pp. 1273–1282). PMLR. https://proceedings.mlr.press/v54/mcmahan17a.html

Dwork, C., Roth, A., et al. (2014). The algorithmic foundations of differential privacy. Foundations and Trends® in Theoretical Computer Science, 9(3–4), 211–407. https://doi.org/10.1561/0400000042

Brundage, M., Avin, S., Clark, J., Toner, H., Eckersley, P., Garfinkel, B., ... & Amodei, D. (2018). The malicious use of artificial intelligence: Forecasting, prevention, and mitigation. arXiv preprint. https://arxiv.org/abs/1802.07228

Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and machine learning. fairmlbook.org. https://fairmlbook.org

Islam, M. R. (2024). Generative AI, cybersecurity, and ethics. Wiley.

Petrenko, S. A., & Smirnov, V. I. (2023). Threat models and recommendations for protecting information systems based on AI. In Proceedings of the Conference on Information Security and Cyber Defense (pp. 764–770).

Lungol, O. M. (2024). Review of methods and strategies of cybersecurity using AI tools. In Proceedings of the 2nd All-Ukrainian Scientific and Practical Conference "Digital Transformations in the Context of Security Challenges" (pp. 379–389). Kyiv: National Academy of the Security Service of Ukraine.

Downloads


Переглядів анотації: 7

Опубліковано

2025-09-26

Як цитувати

Ободяк, В., Отрощенко, М., & Любчак, В. (2025). МОЖЛИВОСТІ ШТУЧНОГО ІНТЕЛЕКТУ ДЛЯ АУДИТУ ТА УПРАВЛІННЯ РИЗИКАМИ КІБЕРБЕЗПЕКИ. Електронне фахове наукове видання «Кібербезпека: освіта, наука, техніка», 1(29), 319–330. https://doi.org/10.28925/2663-4023.2025.29.872