Використання Mixture of Experts з LLM-агрегатором для торговельного бота
No Thumbnail Available
Date
2025
Authors
Салата, Кирило
Journal Title
Journal ISSN
Volume Title
Publisher
Національний університет "Києво-Могилянська академія"
Abstract
Традиційні моделі машинного навчання досить часто стикаються з проблемою перенавчання та неможливістю урахування ринкових умов, через те що фінансові ринки характеризуються високою волатильністю та великою кількістю шуму у даних. Останнім часом для вирішення цих проблем все більше уваги звертають на архітектуру Mixture of Experts (MoE), яка містить суміш експертів, які можуть підвищити узагальнюючу здатність за рахунок використання декількох спеціалізованих експертних підсистем[1].
Description
This research focuses on the architecture of intelligent trading bot, based on the Mixture of Experts(MoE) combined with a large language model (LLM)- based aggregator. Within this system several specialized expert models generate forecasts regarding trading decisions, and the LLM aggregator analyzes the results of these experts' work and makes a final decision. The proposed architecture is expected to improve the accuracy and explainability of trading decisions through dynamic expert selection and multimodal analysis, providing better adaptation to complex market conditions compared to traditional approaches.
Keywords
моделі машинного навчання, архітектура Mixture of Experts (MoE), методи рекурентних нейронних мереж (RNN), навчання з підкріпленням (RL), матеріали конференції
Citation
Салата К. В. Використання Mixture of Experts з LLM-агрегатором для торговельного бота / Салата К. В. // Теоретичні та прикладні аспекти побудови програмних систем : праці 16 Міжнародної науково-практичної конференції, 23-24 листопада 2025 року, Київ / [за заг. ред. М. М. Глибовця, Т. В. Панченка та ін. ; Факультет інформатики Національного університету "Києво-Могилянська академія" та ін.]. - Київ : НаУКМА, 2025. - С. 55-56.