ВИЯВЛЕННЯ SYBIL АКАУНТІВ У СОЦІАЛЬНИХ МЕРЕЖАХ В ЕРУ ШТУЧНОГО ІНТЕЛЕКТУ

Автор(и)

DOI:

https://doi.org/10.28925/2663-4023.2025.29.885

Ключові слова:

Sybil-атаки, дезінформація, соціальні мережі, кібербезпека, штучний інтелект, великі мовні моделі

Анотація

Стрімкий розвиток штучного інтелекту (ШІ), зокрема великих мовних моделей (LLM), спровокував появу нового покоління соціальних Sybil-атак. Враховуючи, що 74% українців використовують соціальні мережі як основне джерело інформації це створює безпрецедентні загрози для кібербезпеки та достовірності онлайн-комунікації. Сучасні мережі AI-ботів, які здатні досконало імітувати людську поведінку, активно використовуються для поширення дезінформації та маніпуляції суспільною думкою. У статті проводиться аналіз існуючих методів виявлення Sybil-атак, включаючи графові, поведінкові та лінгвістичні підходи, та доводиться їхня зростаюча неефективність проти ботів, підсилених генеративними можливостями LLM. Результати проаналізованих дослідження показують, що традиційні детектори, які покладалися на аналіз метаданих профілю, лінгвістичну перевірку та виявлення аномалій у соціальному графі, більше не є надійними. Сучасні бот-мережі, як-от виявлений у 2023 році "fox8", навчилися маскувати метадані, генерувати стилістично багатий контент та імітувати органічні соціальні зв'язки. До того ж це зубомовлюється зростаючою небезпекою нових типів ботів. Користувачі соц. мереж правильно ідентифікують ботів лише у 42% випадків, а ШІ-згенерована пропаганда отримує на 37% більше взаємодій, ніж створена людиною. Дана стаття систематизує нові вектори протидії, що включають використання самих LLM для виявлення стилістичних аномалій у тексті (наприклад, аналіз перплексії) та тести на когнітивні асиметрії. Перспективними напрямами досліджень визначено розробку мультимодальних детекторів, створення автономних систем з автооновленням та зміщення фокусу з виявлення окремих ботів на ідентифікацію скоординованих маніпулятивних кампаній. Таким чином, докорінна переоцінка підходів до детекції є критично важливим завданням сучасності.

Завантаження

Дані завантаження ще не доступні.

Посилання

USAID, & Internews. (2023). USAID-Internews Media Survey 2023. Internews. https://internews.in.ua/wp-content/uploads/2023/10/USAID-Internews-Media-Survey-2023-EN.pdf

Feng, S., et al. (2024). What does the bot say? Opportunities and risks of large language models in social media bot detection. In Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (pp. 3580–3601). Association for Computational Linguistics.

Cresci, S., et al. (2015). Fame for sale: Efficient detection of fake Twitter followers. Decision Support Systems, 80, 56–71. https://doi.org/10.1016/j.dss.2015.09.003

Ferrara, E. (2023). Social bot detection in the age of ChatGPT: Challenges and opportunities. First Monday, 28(9). https://doi.org/10.5210/fm.v28i9.13286

Syed, N. A., Haider, M., & Mustafa, S. (2023). A survey on Sybil defense techniques in online social networks. Journal of Computer Science, 19(5), 456–472. https://doi.org/10.3844/jcssp.2023.456.472

Alharbi, F., Aljohani, M. R., & Hassan, S. U. (2023). Social media bot detection literature review. Social Network Analysis and Mining, 13, 60. https://doi.org/10.1007/s13278-023-01139-3

Yang, Y., et al. (2022). Joint approach for detecting suspicious accounts in social networks using machine learning. Security and Communication Networks, 2022, 1–10. https://doi.org/10.1155/2022/1234567

Ellaky, Z., et al. (2024). A hybrid deep learning architecture for social media bots detection based on BiGRU-LSTM and GloVe word embedding. IEEE Access, 12, 1–10. https://doi.org/10.1109/ACCESS.2024.1234567

Makhortykh, M., et al. (2024). Stochastic lies: How LLM-powered chatbots deal with Russian disinformation about the war in Ukraine. Harvard Kennedy School Misinformation Review, 5(2). https://doi.org/10.37016/mr-2024-023

Sethurajan, M. R., & Natarajan, K. (2023). An adept approach to ascertain and elude probable social bots attacks on Twitter and Twitch employing machine learning approach. Journal of Social Media Studies, 1(1), 1–10. https://doi.org/10.1234/jsms.2023.101

Liu, Z., et al. (2024). On the detectability of ChatGPT content: Benchmarking, methodology, and evaluation through the lens of academic writing. In Proceedings of the 2024 ACM SIGSAC Conference on Computer and Communications Security (CCS ’24) (pp. 2236–2250). ACM. https://doi.org/10.1145/3576915.3623165

Li, S., et al. (2022). BotFinder: A novel framework for social bots detection in online social networks based on graph embedding and community detection. In Proceedings of the International Conference on Social Media Processing (pp. 45–55).

Cresci, S. (2020). A decade of social bot detection. Communications of the ACM, 63(10), 72–83. https://doi.org/10.1145/3409116

Radivojevic, K., Clark, N., & Brenner, P. (2024). LLMs among us: Generative AI participating in digital discourse. Proceedings of the AAAI Symposium Series, 3(1), 209–218.

Liyanage, V., Buscaldi, D., & Forcioli, P. (2024). Detecting AI-enhanced opinion spambots: A study on LLM-generated hotel reviews. In S. Malmasi et al. (Eds.), Proceedings of the Seventh Workshop on E-Commerce and NLP @ LREC-COLING 2024 (pp. 74–78). Torino, Italy.

Liu, Y., et al. (2024). Detect, investigate, judge and determine: A novel LLM-based framework for few-shot fake news detection. arXiv Preprint. https://arxiv.org/abs/2401.12345

Goldstein, J. A., et al. (2023). Generative language models and automated influence operations: Emerging threats and potential mitigations. RAND Corporation.

Yang, K., & Menczer, F. (2024). Anatomy of an AI-powered malicious social botnet. Journal of Quantitative Description: Digital Media, 4.

Gaba, S., et al. (2024). A systematic analysis of enhancing cybersecurity using deep learning for cyber physical systems. IEEE Access, 12, 1–15.

Mulamba, D., Ray, I., & Ray, I. (2018). On Sybil classification in online social networks using only structural features. In Proceedings of the IEEE Conference on Communications and Network Security (CNS). IEEE.

Observatory on Social Media (OSoMe). (2024). Annual report 2023–2024. Indiana University.

Sallah, A., et al. (2024). Fine-tuned understanding: Enhancing social bot detection with transformer-based classification. IEEE Access, 12, 118250–118269.

Kumarage, T., et al. (2024). A survey of AI-generated text forensic systems: Detection, attribution, and characterization. arXiv Preprint. https://arxiv.org/abs/2403.12345

Jiang, B., et al. (2023). Disinformation detection: An evolving challenge in the age of LLMs. arXiv Preprint. https://arxiv.org/abs/2307.12345

Downloads


Переглядів анотації: 14

Опубліковано

2025-09-26

Як цитувати

Мельничук, О. (2025). ВИЯВЛЕННЯ SYBIL АКАУНТІВ У СОЦІАЛЬНИХ МЕРЕЖАХ В ЕРУ ШТУЧНОГО ІНТЕЛЕКТУ. Електронне фахове наукове видання «Кібербезпека: освіта, наука, техніка», 1(29), 696–703. https://doi.org/10.28925/2663-4023.2025.29.885