Παρακαλώ χρησιμοποιήστε αυτό το αναγνωριστικό για να παραπέμψετε ή να δημιουργήσετε σύνδεσμο προς αυτό το τεκμήριο: https://hdl.handle.net/123456789/994
Τύπος: Ανακοίνωση σε συνέδριο
Τίτλος: Attention-based multimodal feature fusion for dance motion generation
Συγγραφέας: [EL] Κρίτσης, Κοσμάς[EN] Kritsis, Kosmassemantics logo
[EL] Πικράκης, Άγγελος[EN] Pikrakis, Aggelossemantics logo
[EL] Γκιόκας, Άγγελος[EN] Gkiokas, Aggelossemantics logo
[EL] Κατσούρος, Βασίλειος[EN] Katsouros, Vassilissemantics logo
Ημερομηνία: 18/10/2021
Περίληψη: Recent advances in deep learning have enabled the extraction of high-level skeletal features from raw images and video sequences, paving the way for new possibilities in a variety of artificial intelligence tasks, including automatically synthesized human motion sequences. In this paper we present a system that combines 2D skeletal data and musical information to generate skeletal dancing sequences. The architecture is implemented solely with convolutional operations and trained by following a teacher-force supervised learning approach, while the synthesis of novel motion sequences follows an autoregressive process. Additionally, by employing an attention mechanism we fuse the latent representations of past music and motion information in order to condition the generation process. For assessing the system performance, we generated 900 sequences and evaluated the perceived realism, motion diversity and multimodality of the generated sequences based on various diversity metrics.
Γλώσσα: Αγγλικά
Σελίδες: 5
DOI: 10.1145/3462244.3479961
ISBN: 978-1-4503-8481-0
Θεματική κατηγορία: [EL] Επιστήμη ηλεκτρονικών υπολογιστών και Πληροφορική, άλλοι τομείς[EN] Computer and Information sciences, miscellaneoussemantics logo
Λέξεις-κλειδιά: convolutional neural networksSequence Generationdeep learning
Κάτοχος πνευματικών δικαιωμάτων: © 2021 Association for Computing Machinery. ACM.
Όροι και προϋποθέσεις δικαιωμάτων: Permission to make digital or hard copies of all or part of this work for personal or classroom use is granted without fee provided that copies are not made or distributed for profit or commercial advantage and that copies bear this notice and the full citation on the first page. Copyrights for components of this work owned by others than ACM must be honored. Abstracting with credit is permitted. To copy otherwise, or republish, to post on servers or to redistribute to lists, requires prior specific permission and/or a fee. Request permissions from permissions@acm.org
Ηλεκτρονική διεύθυνση του τεκμηρίου στον εκδότη: https://dl.acm.org/doi/10.1145/3462244.3479961
Ηλεκτρονική διεύθυνση περιοδικού: https://dl.acm.org/conference/icmi-mlmi/proceedings
Τίτλος πηγής δημοσίευσης: ICMI '21: Proceedings of the 2021 International Conference on Multimodal Interaction
Σελίδες τεκμηρίου (στην πηγή): 763–767
Όνομα εκδήλωσης: ICMI '21 International Conference on Multimodal Interaction
Τοποθεσία εκδήλωσης: Montréal, Canada
Ημ/νία έναρξης εκδήλωσης: 18/10/2021
Ημ/νία λήξης εκδήλωσης: 22/10/2021
Σημειώσεις: This research is co-financed by Greece and the European Union through the Operational Programme “Human Resources Development, Education and Lifelong Learning 2014- 2020” in the context of the project “Analysis and processing of motion and sound data for real-time music creation” (MIS 5047232).
Εμφανίζεται στις συλλογές:Ερευνητικές ομάδες

Αρχεία σε αυτό το τεκμήριο:
Αρχείο Περιγραφή ΣελίδεςΜέγεθοςΜορφότυποςΈκδοσηΆδεια
3462244.3479961(1).pdf
  Restricted Access
published paper3.26 MBAdobe PDFΔημοσιευμένη/του ΕκδότηinceduΔείτε/ανοίξτε