СОЦІАЛЬНА ІНЖЕНЕРІЯ ЯК ІНСТРУМЕНТ ІНФОРМАЦІЙНО-ПСИХОЛОГІЧНИХ ОПЕРАЦІЙ В УМОВАХ ЗБРОЙНОГО КОНФЛІКТУ
DOI:
https://doi.org/10.28925/2663-4023.2026.32.1108Ключові слова:
соціальна інженерія; кібербезпека; інформаційно-психологічний вплив; маніпулятивні повідомлення; фішинг; дезінформація; цифрова гігієна; медіаграмотністьАнотація
У статті розглянуто соціальну інженерію як один із найбільш результативних інструментів маніпулятивного впливу на користувачів у цифровому середовищі в умовах збройного конфлікту. Акцентовано, що в період війни соціальна інженерія набуває особливої небезпечності, оскільки поєднує психологічний тиск із технологічними каналами поширення інформації, що ускладнює критичне сприйняття повідомлень та підвищує ймовірність імпульсивної поведінки. Обґрунтовано, що головна ціль соціально-інженерних впливів у кризових умовах полягає не лише у введенні користувача в оману, а й у формуванні керованих поведінкових реакцій: паніки, швидкого поширення неперевірених повідомлень, зниження довіри до офіційних каналів комунікації, а також дезорганізації інформаційного простору.
Проаналізовано типові зразки маніпулятивних повідомлень у месенджерах, які імітують екстрені попередження про загрозу та містять заклики до негайних дій (наприклад, «терміново», «тривога», «відкрити карту цілей/загроз»). Показано, що ефективність таких повідомлень забезпечується використанням стійких психологічних тригерів, зокрема ефекту терміновості, апеляції до страху, інформаційної невизначеності та когнітивного перевантаження. Доведено, що поєднання псевдоофіційної стилістики з візуальними маркерами «легітимності» (символи небезпеки, короткі наказові формулювання, емоційно насичені заголовки) створює у користувача враження достовірності та сприяє автоматизованій реакції без належної перевірки джерела.
Окремо визначено індикатори, за якими можна ідентифікувати соціально-інженерний характер повідомлень: нав’язування невідкладності, локалізація загрози для конкретної території або групи населення, прямі поведінкові інструкції («перейти», «натиснути», «відкрити»), а також використання показників охоплення чи реакцій як засобу соціального підтвердження. Практичне значення дослідження полягає у формуванні базових превентивних рекомендацій щодо протидії соціальній інженерії: верифікація повідомлень через офіційні джерела, дотримання принципів цифрової гігієни, обмеження переходів за сумнівними посиланнями, розвиток медіаграмотності та стійкості до емоційного впливу. Зроблено висновок, що системна протидія соціальній інженерії під час війни потребує поєднання технічних, інформаційних і освітніх заходів, спрямованих на збереження інформаційної стабільності та безпечної поведінки користувачів у кіберпросторі.
Завантаження
Посилання
Haborets, O. A., & Lunhol, O. M. (2025). Social engineering as a phenomenon of information influence in the digital environment. National Interests of Ukraine, 11(16), 95–104.
Zhmurko, O. (2024). Social engineering as a cybersecurity threat: Prevention and protection methods. Security Pedagogy, 9(1), 37–42. https://doi.org/10.31649/2524-1079-2024-9-1-037-042
Naseeb, J. (2025). Analyzing psychological operations: A case study of Indo-Pak hostility (2010–2024). NUST Journal of International Peace & Stability, 8(1), 77–90. https://doi.org/10.37540/njips.v8i1.187
Gupta, B. B., Arachchilage, N. A. G., & Psannis, K. E. (2017). Defending against phishing attacks: Taxonomy of methods, current issues and future directions. Telecommunication Systems, 67(2), 247–267. https://doi.org/10.1007/s11235-017-0334-z
Luhovets, D. V., & Petrenko, A. B. (2021). Structure for detecting phishing attacks of social engineering. In Proceedings of the 6th International Scientific and Practical Conference “International Scientific Innovations in Human Life” (pp. 201). Cognum Publishing House.
Laptiev, S. (2022). Improved method of personal data protection against attacks using social engineering algorithms. Cybersecurity: Education, Science, Technique, 4(16), 45–62. https://doi.org/10.28925/2663-4023.2022.16.4562
Dobryshyn, Yu. (2024). Application of statistical methods for predicting phishing attacks. Cybersecurity: Education, Science, Technique, 3(23), 56–70. https://doi.org/10.28925/2663-4023.2024.23.5670
Danylyk, V., Vysotska, V., & Nazarkevych, M. (2024). Methods for identifying disinformation, fake news, and propaganda in mass media based on machine learning. Cybersecurity: Education, Science, Technique, 1(25), 449–467. https://doi.org/10.28925/2663-4023.2024.25.449467
Nazarkevych, M., Vysotska, V., Yurynets, R., & Nakonechnyi, N. (2025). Methods for detecting disinformation in social networks based on artificial intelligence. Cybersecurity: Education, Science, Technique, 2(30), 209–223. https://doi.org/10.28925/2663-4023.2025.30.965
Prokopovych-Tkachenko, D., Bakuta, A., Zvieriev, V., Kozachenko, I., & Cherkaskyi, O. (2025). Modeling phishing scenarios in Ukraine’s cyberspace: An analytical approach using Grafana dashboards. Cybersecurity: Education, Science, Technique, 1(29), 331–347. https://doi.org/10.28925/2663-4023.2025.29.881
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2026 Ольга Габорець

Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.