Παρακαλώ χρησιμοποιήστε αυτό το αναγνωριστικό για να παραπέμψετε ή να δημιουργήσετε σύνδεσμο προς αυτό το τεκμήριο:
https://hdl.handle.net/123456789/994
Τύπος: | Ανακοίνωση σε συνέδριο |
Τίτλος: | Attention-based multimodal feature fusion for dance motion generation |
Συγγραφέας: | [EL] Κρίτσης, Κοσμάς[EN] Kritsis, Kosmas [EL] Πικράκης, Άγγελος[EN] Pikrakis, Aggelos [EL] Γκιόκας, Άγγελος[EN] Gkiokas, Aggelos [EL] Κατσούρος, Βασίλειος[EN] Katsouros, Vassilis |
Ημερομηνία: | 18/10/2021 |
Περίληψη: | Recent advances in deep learning have enabled the extraction of high-level skeletal features from raw images and video sequences, paving the way for new possibilities in a variety of artificial intelligence tasks, including automatically synthesized human motion sequences. In this paper we present a system that combines 2D skeletal data and musical information to generate skeletal dancing sequences. The architecture is implemented solely with convolutional operations and trained by following a teacher-force supervised learning approach, while the synthesis of novel motion sequences follows an autoregressive process. Additionally, by employing an attention mechanism we fuse the latent representations of past music and motion information in order to condition the generation process. For assessing the system performance, we generated 900 sequences and evaluated the perceived realism, motion diversity and multimodality of the generated sequences based on various diversity metrics. |
Γλώσσα: | Αγγλικά |
Σελίδες: | 5 |
DOI: | 10.1145/3462244.3479961 |
ISBN: | 978-1-4503-8481-0 |
Θεματική κατηγορία: | [EL] Επιστήμη ηλεκτρονικών υπολογιστών και Πληροφορική, άλλοι τομείς[EN] Computer and Information sciences, miscellaneous |
Λέξεις-κλειδιά: | convolutional neural networks; Sequence Generation; deep learning |
Κάτοχος πνευματικών δικαιωμάτων: | © 2021 Association for Computing Machinery. ACM. |
Όροι και προϋποθέσεις δικαιωμάτων: | Permission to make digital or hard copies of all or part of this work for personal or classroom use is granted without fee provided that copies are not made or distributed for profit or commercial advantage and that copies bear this notice and the full citation on the first page. Copyrights for components of this work owned by others than ACM must be honored. Abstracting with credit is permitted. To copy otherwise, or republish, to post on servers or to redistribute to lists, requires prior specific permission and/or a fee. Request permissions from permissions@acm.org |
Ηλεκτρονική διεύθυνση του τεκμηρίου στον εκδότη: | https://dl.acm.org/doi/10.1145/3462244.3479961 |
Ηλεκτρονική διεύθυνση περιοδικού: | https://dl.acm.org/conference/icmi-mlmi/proceedings |
Τίτλος πηγής δημοσίευσης: | ICMI '21: Proceedings of the 2021 International Conference on Multimodal Interaction |
Σελίδες τεκμηρίου (στην πηγή): | 763–767 |
Όνομα εκδήλωσης: | ICMI '21 International Conference on Multimodal Interaction |
Τοποθεσία εκδήλωσης: | Montréal, Canada |
Ημ/νία έναρξης εκδήλωσης: | 18/10/2021 |
Ημ/νία λήξης εκδήλωσης: | 22/10/2021 |
Σημειώσεις: | This research is co-financed by Greece and the European Union through the Operational Programme “Human Resources Development, Education and Lifelong Learning 2014- 2020” in the context of the project “Analysis and processing of motion and sound data for real-time music creation” (MIS 5047232). |
Εμφανίζεται στις συλλογές: | Ερευνητικές ομάδες |
Αρχεία σε αυτό το τεκμήριο:
Αρχείο | Περιγραφή | Σελίδες | Μέγεθος | Μορφότυπος | Έκδοση | Άδεια | |
---|---|---|---|---|---|---|---|
3462244.3479961(1).pdf Restricted Access | published paper | 3.26 MB | Adobe PDF | Δημοσιευμένη/του Εκδότη | Δείτε/ανοίξτε |