Оцінка трансформерних моделей mT5 для українсько-англійського перекладу

dc.contributor.authorМахаммедов, Жанuk_UA
dc.contributor.authorКирієнко, Оксанаuk_UA
dc.contributor.authorТкаченко, Владиславuk_UA
dc.date.accessioned2026-02-03T11:40:12Z
dc.date.available2026-02-03T11:40:12Z
dc.date.issued2025
dc.descriptionThis study quantitatively investigates the impact of Transformer architecture size on the accuracy of Ukrainian-to-English machine translation using the multilingual mT5 model. The research evaluates three distinct mT5 versions (small, base, and large) by fine-tuning them on a subset of the HPLT v2 corpus. The technical implementation relied on a standard Python-based deep learning stack, utilizing PyTorch and Hugging Face (Transformers, Datasets) libraries for model management and training. Fine-tuning was executed on a high-performance GPU to handle the significant computational load, while inference speed was benchmarked on a typical consumer-grade GPU to reflect real-world deployment scenarios. Translation quality was assessed using the standard BLEU and chrF++ metrics. The results confirm a direct correlation between model size and translation quality, with larger models consistently achieving higher scores on both evaluation metrics. This improved accuracy, however, comes at the cost of significantly increased computational demand for both training and inference. Notably, when benchmarked against other large-scale, general-purpose translation models such as NLLB-200 (distilled-600M and distilled-1.3B), the fine-tuned mT5 variants demonstrated superior performance for Ukrainian-English translation, underscoring the benefits of task-specific adaptation. This study confirms the feasibility of using all three mT5 models for this task on typical computing systems, presenting users with a clear trade-off between desired translation quality and available resources.en_US
dc.description.abstractЦю статтю присвячено кількісному вивченню впливу розміру архітектури Transformer на точність українсько-англійського машинного перекладу з використанням моделі mT5. Досліджено ефективність роботи моделей mT5 різних розмірів (small, base, large) щодо часу навчання, часу генерації перекладів і якості перекладу, оціненої метриками BLEU та chrF++. Результати показують, що більші моделі mT5 демонструють вищу якість перекладу, але потребують значно більше обчислювальних ресурсів. Результати дослідження підтверджують доцільність застосування моделей mT5 для українсько-англійського перекладу, навіть на типових обчислювальних системах.uk_UA
dc.identifier.citation111uk_UA
dc.identifier.issn2617-3808
dc.identifier.issn2617-7323
dc.identifier.urihttps://doi.org/10.18523/2617-3808.2025.8.97-101
dc.identifier.urihttps://ekmair.ukma.edu.ua/handle/123456789/38244
dc.language.isoukuk_UA
dc.relation.sourceНаукові записки НаУКМА. Комп'ютерні наукиuk_UA
dc.statusfirst publisheduk_UA
dc.subjectтрансформерuk_UA
dc.subjectоброблення природної мовиuk_UA
dc.subjectмашинний перекладuk_UA
dc.subjectнейронний машинний перекладuk_UA
dc.subjectmT5en_US
dc.subjectHPLTen_US
dc.subjectBLEUen_US
dc.subjectchrF++en_US
dc.subjectNLLB-200en_US
dc.subjectстаттяuk_UA
dc.subjecttransformeren_US
dc.subjectnatural language processingen_US
dc.subjectmachine translationen_US
dc.subjectneural machine translationen_US
dc.subjectmT5en_US
dc.subjectHPLTen_US
dc.subjectBLEUen_US
dc.subjectchrF++en_US
dc.subjectNLLB-200en_US
dc.titleОцінка трансформерних моделей mT5 для українсько-англійського перекладуuk_UA
dc.title.alternativeEvaluating mT5 transformer models for ukrainian-english translationen_US
dc.typeArticleuk_UA
Files
Original bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
Otsinka_transformernykh_modelei_mT5_dlia_ukrainsko-anhliiskoho_perekladu.pdf
Size:
363.21 KB
Format:
Adobe Portable Document Format
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.71 KB
Format:
Item-specific license agreed upon to submission
Description:
Collections