ОРГАНІЗАЦІЯ БЕЗПЕЧНОГО ФУНКЦІОНУВАННЯ ГОЛОСОВИХ АГЕНТІВ НА БАЗІ ВЕЛИКИХ МОВНИХ МОДЕЛЕЙ

Автор(и)

DOI:

https://doi.org/10.28925/2663-4023.2025.29.868

Ключові слова:

голосові агенти, великі мовні моделі, архітектура програмного забезпечення, безпека інформаційних систем

Анотація

Станом на сьогодні, набуває поширення практика впровадження  голосових агентів на базі LLM (англ. “Large Language Models” – великі мовні моделі) у корпоративні Це створює нові виклики та небезпеки для архітектури програмного забезпечення, а також безпеки інформаційних систем. Традиційні підходи до розробки не враховують специфіку інтеграції LLM як компонента, що може бути скомпрометований зловмисниками через промпт-ін'єкції та інші атаки на рівні обробки природної мови. Стаття представляє огляд архітектурного підходу до безпечної інтеграції голосових агентів, що базується на принципі розділення основних бізнес-правил від логіки взаємодії з мовними моделями. Запропонована архітектура дозволяє побудувати багаторівневу систему захисту через: 1) реалізацію принципу найменших привілеїв для LLM-компонентів; 2) незалежну валідацію бізнес-операцій на рівні доменних сервісів; 3)використання великої мовної моделі як медіатора між користувачем та критично важливими системами. Дослідження, наведене у даній статті, демонструє ефективність архітектурного підходу у протидії типовим атакам –зокрема: промпт-ін'єкціям з метою обходу авторизації; діям, направленим на витік чутливих даних; несанкціонованим операціям, які здійснюються через function calling; діям, направленим на порушення цілісності бізнес-процесів тощо. Медіаторна архітектура значно спрощує розуміння та управління системою завдяки чіткому розподілу ролей між компонентами. Така архітектура підвищує передбачуваність системи та забезпечує можливість застосування традиційних методів валідації та аудиту. Архітектурна ізоляція LLM від критичних операцій дозволяє організаціям впроваджувати провідні AI-технології (від англ. “AI technologies” – технології штучного інтелекту) без кардинальної перебудови  систем безпеки, які на даний момент вже впроваджені у компанії. В той же час, забезпечується стійкість до нових вразливостей та гнучкість у виборі технологічних рішень. Результати дослідження мають практичне значення для розробки корпоративних систем з інтеграцією голосових агентів та сприяють формуванню безпечних практик використання великих мовних моделей у критично важливих застосунках компанії.

Завантаження

Дані завантаження ще не доступні.

Посилання

Bucaion, A. (2025). A functional software reference architecture for LLM-integrated systems.

Chan, C. M. (2024). AgentMonitor: A plug-and-play framework for predictive and secure multi-agent systems.

Chang, E., & Geng, L. (2025). SagaLLM: Context management, validation, and transaction guarantees for multi-agent LLM planning.

Chun, Y. E. (2025). CREFT: Sequential multi-agent LLM for character relation extraction.

Ginart, A. A. (2024). Asynchronous tool usage for real-time agents.

Guran, N. (2024). Towards a middleware for large language models.

Kalhor, B., & Das, S. (2023). Evaluating the security and privacy risk postures of virtual assistants.

Kim, M. (2024). A multi-agent approach for REST API testing with semantic graphs and LLM-driven input.

Li, X. (2024). A survey on LLM-based multi-agent systems: Workflow, infrastructure, and challenges.

Ma, H. (2025). Coevolving with the other you: Fine-tuning LLM with sequential cooperative multi-agent reinforcement learning.

Nunez, A. (2024). AutoSafeCoder: A multi-agent framework for securing LLM code generation through static analysis and fuzz testing.

Suo, X. (2025). Signed-Prompt: A new approach to prevent prompt injection attacks against LLM-integrated applications.

Szeider, S. (2025). MCP-Solver: Integrating language models with constraint programming systems.

Wen, W., Zhenyue, Z., & Tianshu, S. (2023). Customizing large language models for business context: Framework and experiments.

Yi-Chang, C. (2024). Enhancing function-calling capabilities in LLMs: Strategies for prompt formats, data integration, and multilingual translation.

Zhang, Y. (2024). Towards efficient LLM grounding for embodied multi-agent collaboration.

Modelcontextprotocol.io. (2025, March 26). Specification (latest version). https://modelcontextprotocol.io/specification/2025-03-26

Downloads


Переглядів анотації: 5

Опубліковано

2025-09-26

Як цитувати

Артеменко, А., & Худік, Б. (2025). ОРГАНІЗАЦІЯ БЕЗПЕЧНОГО ФУНКЦІОНУВАННЯ ГОЛОСОВИХ АГЕНТІВ НА БАЗІ ВЕЛИКИХ МОВНИХ МОДЕЛЕЙ. Електронне фахове наукове видання «Кібербезпека: освіта, наука, техніка», 1(29), 310–318. https://doi.org/10.28925/2663-4023.2025.29.868