ВИЯВЛЕННЯ МАНІПУЛЯТИВНОЇ СКЛАДОВОЇ У ТЕКСТОВИХ ПОВІДОМЛЕННЯХ ЗАСОБІВ МАСОВОЇ ІНФОРМАЦІЇ У КОНТЕКСТІ ЗАХИСТУ ВІТЧИЗНЯНОГО КІБЕРПРОСТОРУ
DOI:
https://doi.org/10.28925/2663-4023.2025.29.839Ключові слова:
маніпулятивна складова, велика мовна модель, кіберпростір, інформаційне протиборство, автоматизований аналіз тексту, безпека інформації, засоби масової інформаціїАнотація
Проблематикою статті є підвищення ефективності засобів забезпечення інформаційної безпеки у межах національного кіберпростору шляхом автоматизованого виявлення маніпулятивної складової у текстових повідомленнях засобів масової інформації. Показано, що одним із основних напрямків підвищення ефективності таких засобів є використання великих мовних моделей, які здатні здійснювати глибокий контекстуальний аналіз природномовного тексту з урахуванням емоційного, риторичного та семантичного наповнення. Встановлено, що більшість відомих рішень в області виявлення текстових маніпуляцій за допомогою великих мовних моделей достатньо складно адаптувати до умов практичного застосування в системах захисту вітчизняного кіберпростору внаслідок необхідності створення потужної апаратно-програмної інфраструктури для обслуговування відповідних LLM-засобів та необхідності формування спеціалізованих навчальних вибірок, що враховують основні типи маніпулятивних впливів, характерні для реалій інформаційного протистояння. Для подолання цих обмежень у статті запропоновано концепцію використання LLM-засобів (GPT, Gemini, DeepSeek, Grok тощо), яка базується на реалізації діалогової взаємодії із заздалегідь стандартизованими формалізованими запитами, що враховують основні типи маніпулятивних впливів. До таких впливів, згідно з класифікацією, віднесено емоційно-маніпулятивні повідомлення, інформаційні підміни, дискредитаційні наративи, маніпуляції контекстом, пропагандистські конструкції, експлуатацію соціально чутливих тем та штучне формування суспільної думки шляхом бот-активності. Розроблено метод взаємодії з LLM, що охоплює етапи попередньої обробки тексту, формування запитів базового, типологічного та інтерпретаційного рівнів, а також інтерпретацію відповідей LLM у формалізованому вигляді. Проведені експериментальні дослідження із залученням трьох груп текстів (наукових, політичних та деструктивно-пропагандистських) засвідчили, що результати аналізу, отримані за допомогою LLM-засобу GPT-4-turbo, у середньому на 87% узгоджуються з експертними оцінками, що свідчить про високий рівень достовірності отриманих результатів та підтверджує практичну ефективність запропонованих рішень. Показано, що підвищити точність та стабільність оцінок маніпулятивної складової можливо за рахунок донавчання LLM-засобів шляхом включення до запиту прикладів коректних відповідей, що дозволяє підвищити узгодженість результатів без необхідності повного перенавчання моделі.
Завантаження
Посилання
Alsaedi, N., & Alsaedi, A. (2023). Improving multiclass classification of fake news using BERT-based models and ChatGPT-augmented data. Inventions, 8(5), 112. https://doi.org/10.3390/inventions8050112
Da San Martino, G., Barrón-Cedeño, A., Petrov, R., & Nakov, P. (2019). Fine-grained analysis of propaganda in news articles [Preprint]. arXiv. https://arxiv.org/abs/1910.02517
Da San Martino, G., Yu, S., Barrón-Cedeño, A., Petrov, R., & Nakov, P. (2020). SemEval-2020 task 11: Detection of propaganda techniques in news articles [Preprint]. arXiv. https://arxiv.org/abs/2009.02696
Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2018). BERT: Pre-training of deep bidirectional transformers for language understanding [Preprint]. arXiv. https://arxiv.org/abs/1810.04805
Korchenko, O., Tereikovskyi, I., Ziubina, R., Tereikovska, L., Korystin, O., Tereikovskyi, O., & Karpinskyi, V. (2025). Modular neural network model for biometric authentication of personnel in critical infrastructure facilities based on facial images. Applied Sciences, 15, 2553. https://doi.org/10.3390/app15052553
Li, L., Ma, R., Guo, Q., & Qiu, X. (2020). BERT-ATTACK: Adversarial attack against BERT using BERT. arXiv. https://arxiv.org/abs/2004.09984
Lin, S., Hilton, J., & Evans, O. (2021). TruthfulQA: Measuring how models mimic human falsehoods [Preprint]. arXiv. https://arxiv.org/abs/2109.07958
Smith, J., & Brown, L. (2022). Fake news detection using deep learning models. Journal of Computational Linguistics, 28(4), 345–360.
StopRussia | MRIYA. (n.d.). Official chatbot of Ukraine. Internet Archive. https://web.archive.org/web/20220601115228/https://t.me/stopdrugsbot
StopRussiaChannel | MRIYA. (n.d.). Official Telegram channel of Ukraine for checking and blocking resources that spread fake news and propaganda. Internet Archive. https://web.archive.org/web/20220601090556/https://t.me/stoprussiachannel
Tereikovskyi, I., Korchenko, O., Bushuyev, S., Tereikovskyi, O., Ziubina, R., & Veselska, O. (2023). A neural network model for object mask detection in medical images. International Journal of Electronics and Telecommunications, 69(1), 41–46. https://doi.org/10.24425/ijet.2023.144329
Tereikovskyi, I., AlShboul, R., Mussiraliyeva, Sh., Tereikovska, L., Bagitova, K., Tereikovskyi, O., & Hu, Zh. (2024). Method for constructing neural network means for recognizing scenes of political extremism in graphic materials of online social networks. International Journal of Computer Network and Information Security, 16(3), 52–69. https://doi.org/10.5815/ijcnis.2024.03.05
Tereikovskyi, I., Hu, Zh., Chernyshev, D., Tereikovska, L., Korystin, O., & Tereikovskyi, O. (2022). The method of semantic image segmentation using neural networks. International Journal of Image, Graphics and Signal Processing, 14(6), 1–14. https://doi.org/10.5815/ijigsp.2022.06.01
Wang, Z., Liu, Y., & Chen, X. (2023). Implementing BERT and fine-tuned RoBERTa to detect AI generated news by ChatGPT [Preprint]. arXiv. https://doi.org/10.48550/arXiv.2306.07401
Volokhovskyi, V., Khovrat, А., Kobziev, V., & Nazarov, О. (2024). Domain specific text analysis via decoder-only large language models. Grail of Science, 43, 313–321. https://doi.org/10.36074/grail-of-science.06.09.2024.041
Vorochek O.H., & Solovei I.V. (2024). Using artificial intelligence speech models to generate social media posts. Technical Engineering, 1(93), 128–134. https://doi.org/10.26642/ten-2024-1(93)-128-134
Zaporozhets, V., & Opirskyy, I. (2024). The danger of using Telegram and its impact on ukrainian society. Cybersecurity: Education, Science, Technique, 1(25), 59–78. https://doi.org/10.28925/2663-4023.2024.25.5978.
Cabinet of Ministers of Ukraine. (2025). On approval of the action plan for 2025 for the implementation of the cybersecurity strategy of Ukraine: Order No. 204-p. https://www.kmu.gov.ua/npas/pro-zatverdzhennia-planu-zakhodiv-na-2025-rik-z-realizatsii-stratehii-kiberbezpeky-t70325
Korovii О., & Tereikovskyi І. (2024). Conceptual model of the process of determining the emotional tonality of the text. Computer-integrated technologies: education, science, production, 55, 115–123. https://doi.org/10.36910/6775-2524-0560-2024-55-14
Lesko N. V., & Kira S. O. (2023). Cyber security as a part of the national security of Ukraine in the conditions of war. Juridical scientific and electronic journal, 5, 112–120. https://doi.org/10.32782/2524-0374/2023-5/55
Chervyakov О. (2024). Peculiarities of ensuring cyber security as a leading component of Ukraine’s national security. Bulletin of criminological association of Ukraine, 33(3), 511–518. https://doi.org/10.32631/vca.2024.3.47
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2025 Олександр Корченко, Ігор Терейковський, Іван Дичка, Віталій Романкевич, Людмила Терейковська

Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.