Efficient Policy Learning via Knowledge Distillation for Robotic Manipulation

dc.contributor.authorSeverhin, Oleksandren_US
dc.contributor.authorKuzmenko, Dmytroen_US
dc.contributor.authorShvai, Nadiyaen_US
dc.date.accessioned2026-02-09T08:58:31Z
dc.date.available2026-02-09T08:58:31Z
dc.date.issued2025
dc.description.abstractThe work focuses on the computational intractability of large-scale Reinforcement Learning (RL) models for robotic manipulation. While world-like models like TD-MPC2 demonstrate high performance in various manipulative tasks, their immense parameter count (e.g., 317M) hinders training and deployment on resource-constrained hardware. This research investigates Knowledge Distillation (KD) with a loss function specifically described in [1] and [2] as a primary method for model compression. This involves training a lightweight "student" model to mimic the behavior of a large, pre-trained "teacher" model. Unlike in supervised learning, distilling knowledge in RL is uniquely complex; the objective is to transfer a dynamic, reward-driven policy, not a simple input-output function.en_US
dc.identifier.citationSeverhin O. Efficient Policy Learning via Knowledge Distillation for Robotic Manipulation / Severhin O., Kuzmenko D., Shvai N. // Теоретичні та прикладні аспекти побудови програмних систем : праці 16 Міжнародної науково-практичної конференції, 23-24 листопада 2025 року, Київ / [за заг. ред. М. М. Глибовця, Т. В. Панченка та ін. ; Факультет інформатики Національного університету "Києво-Могилянська академія" та ін.]. - Київ : НаУКМА, 2025. - С. 64-66.en_US
dc.identifier.urihttps://ekmair.ukma.edu.ua/handle/123456789/38293
dc.language.isoenen_US
dc.publisherНаціональний університет "Києво-Могилянська академія"uk_UA
dc.relation.sourceТеоретичні та прикладні аспекти побудови програмних систем : праці 16 Міжнародної науково-практичної конференції, 23-24 листопада 2025 року, Київuk_UA
dc.statusfirst publisheden_US
dc.subjectmodel compressionen_US
dc.subjectReinforcement Learning (RL)en_US
dc.subjectrobotic manipulationen_US
dc.subjectWorld-like models / TD-MPC2en_US
dc.subjectconference materialsen_US
dc.titleEfficient Policy Learning via Knowledge Distillation for Robotic Manipulationen_US
dc.title.alternativeЕфективне навчання стратегiй керування для роботизованих манiпуляцiй за допомогою дистиляцiї знаньuk_UA
dc.typeConference materialsen_US
Files
Original bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
Severhin_Kuzmenko_Shvai_Materialy_konferentsii.pdf
Size:
1.16 MB
Format:
Adobe Portable Document Format
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.71 KB
Format:
Item-specific license agreed upon to submission
Description: