ПОРІВНЯННЯ TELEGRAM- BOTA ДЛЯ ГЕНЕРАЦІЇ ТЕКСТУ, СТВОРЕНОГО НА ОСНОВІ OPENAI i GEMINIAI
DOI:
https://doi.org/10.28925/2663-4023.2026.32.1063Ключові слова:
генеративні моделі, штучний інтелект;, OpenAI GPT;, Gemini 2.5 Pro, трансформери, Telegram-бот, генерація текстів, обробка природної мови, порівняльний аналіз., AI чат-ботАнотація
У роботі розглянуто проблему створення та порівняльного аналізу сучасних генеративних мовних моделей на прикладі OpenAI GPT та Gemini 2.5 Pro, інтегрованих у Telegram-бот для автоматичної генерації текстів. Актуальність дослідження зумовлена зростаючою потребою у швидких, гнучких та якісних інструментах створення контенту, здатних працювати у режимі реального часу. У межах роботи було сформульовано вимоги до програмного засобу, розроблено архітектуру Telegram-бота, визначено принципи його роботи та реалізовано взаємодію з API обох моделей. Особливу увагу приділено тестуванню якості згенерованих текстів, швидкодії, стабільності роботи моделей та їх поведінці під навантаженням. Під час проведення експериментів встановлено, що Gemini 2.5 Pro демонструє значно вищу швидкість генерації та точність інтерпретації запитів, тоді як OpenAI GPT переважає у творчих завданнях, стилістичній природності та гнучкості формулювань. Обидві моделі показали високу здатність до роботи з багатьма жанрами текстів, проте відмінні за структурністю, логічністю та якістю підтримки контексту. Результати дослідження свідчать, що жодна модель не має абсолютної переваги: вибір залежить від конкретної задачі та вимог до стилю, точності чи швидкості відповіді. Розроблений Telegram-бот підтвердив ефективність інтеграції генеративних моделей у практичні системи та продемонстрував можливість адаптації до різних сценаріїв використання. Отримані висновки можуть бути використані для подальшої оптимізації генеративних систем, вибору моделей для конкретних застосунків та розробки інтелектуальних сервісів на основі штучного інтелекту.
Завантаження
Посилання
Vaswani, A., Shazeer, N., Parmar, N., et al. (2017). Attention is all you need. In Advances in Neural Information Processing Systems (NeurIPS 2017).
Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., et al. (2019). Exploring the limits of transfer learning with a unified text-to-text transformer. arXiv. https://arxiv.org/abs/1910.10683
Min, B., Ross, H., Sulem, E., Pouran Ben Veyseh, A., Nguyen, T. H., Sainz, O., Agirre, E., Heinz, I., & Roth, D. (2021). Recent advances in natural language processing via large pre-trained language models: A survey. arXiv. https://arxiv.org/abs/2111.01243
Kalyan, S. S. (2023). A survey of GPT-3 family large language models including ChatGPT and GPT-4. arXiv. https://arxiv.org/abs/2301.06627
Amvera. (2024). Integration of GPT-4 Omni model into a Telegram bot in Python. Habr. https://habr.com
TeLLMgramBot. (n.d.). Library for building Telegram bots with AI model support. PyPI. https://pypi.org
Speka Media. (2023). How artificial intelligence is used in SEO and content marketing. https://speka.media
National Technical University of Ukraine “Igor Sikorsky Kyiv Polytechnic Institute”. (2024). Context-aware text transformation using ChatGPT [Bachelor’s/Master’s thesis]. Electronic Library KPI. Zaporizhzhia National University. (n.d.). Machine learning course materials. https://moodle.znu.edu.ua
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2026 Оксана Онищук

Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.