Efficient Policy Learning via Knowledge Distillation for Robotic Manipulation
| dc.contributor.author | Severhin, Oleksandr | en_US |
| dc.contributor.author | Kuzmenko, Dmytro | en_US |
| dc.contributor.author | Shvai, Nadiya | en_US |
| dc.date.accessioned | 2026-02-09T08:58:31Z | |
| dc.date.available | 2026-02-09T08:58:31Z | |
| dc.date.issued | 2025 | |
| dc.description.abstract | The work focuses on the computational intractability of large-scale Reinforcement Learning (RL) models for robotic manipulation. While world-like models like TD-MPC2 demonstrate high performance in various manipulative tasks, their immense parameter count (e.g., 317M) hinders training and deployment on resource-constrained hardware. This research investigates Knowledge Distillation (KD) with a loss function specifically described in [1] and [2] as a primary method for model compression. This involves training a lightweight "student" model to mimic the behavior of a large, pre-trained "teacher" model. Unlike in supervised learning, distilling knowledge in RL is uniquely complex; the objective is to transfer a dynamic, reward-driven policy, not a simple input-output function. | en_US |
| dc.identifier.citation | Severhin O. Efficient Policy Learning via Knowledge Distillation for Robotic Manipulation / Severhin O., Kuzmenko D., Shvai N. // Теоретичні та прикладні аспекти побудови програмних систем : праці 16 Міжнародної науково-практичної конференції, 23-24 листопада 2025 року, Київ / [за заг. ред. М. М. Глибовця, Т. В. Панченка та ін. ; Факультет інформатики Національного університету "Києво-Могилянська академія" та ін.]. - Київ : НаУКМА, 2025. - С. 64-66. | en_US |
| dc.identifier.uri | https://ekmair.ukma.edu.ua/handle/123456789/38293 | |
| dc.language.iso | en | en_US |
| dc.publisher | Національний університет "Києво-Могилянська академія" | uk_UA |
| dc.relation.source | Теоретичні та прикладні аспекти побудови програмних систем : праці 16 Міжнародної науково-практичної конференції, 23-24 листопада 2025 року, Київ | uk_UA |
| dc.status | first published | en_US |
| dc.subject | model compression | en_US |
| dc.subject | Reinforcement Learning (RL) | en_US |
| dc.subject | robotic manipulation | en_US |
| dc.subject | World-like models / TD-MPC2 | en_US |
| dc.subject | conference materials | en_US |
| dc.title | Efficient Policy Learning via Knowledge Distillation for Robotic Manipulation | en_US |
| dc.title.alternative | Ефективне навчання стратегiй керування для роботизованих манiпуляцiй за допомогою дистиляцiї знань | uk_UA |
| dc.type | Conference materials | en_US |
Files
Original bundle
1 - 1 of 1
Loading...
- Name:
- Severhin_Kuzmenko_Shvai_Materialy_konferentsii.pdf
- Size:
- 1.16 MB
- Format:
- Adobe Portable Document Format
License bundle
1 - 1 of 1
No Thumbnail Available
- Name:
- license.txt
- Size:
- 1.71 KB
- Format:
- Item-specific license agreed upon to submission
- Description: