Παρακαλώ χρησιμοποιήστε αυτό το αναγνωριστικό για να παραπέμψετε ή να δημιουργήσετε σύνδεσμο προς αυτό το τεκμήριο: https://hdl.handle.net/123456789/1719
Τύπος: Ανακοίνωση σε συνέδριοΠρακτικά συνεδρίου
Τίτλος: Efficient online subclass knowledge distillation for image classification
Συγγραφέας: [EL] Τζελέπη, Μαρία[EN] Tzelepi, Mariasemantics logo
[EL] Πασσαλής, Νικόλαος[EN] Passalis, Nikolaossemantics logo
[EL] Τέφας, Αναστάσιος[EN] Tefas, Anastasiossemantics logo
Ημερομηνία: 05/05/2021
Περίληψη: Deploying state-of-the-art deep learning models on embedded systems dictates certain storage and computation limitations. During the recent few years Knowledge Distillation (KD) has been recognized as a prominent approach to address this issue. That is, KD has been effectively proposed for training fast and compact deep learning models by transferring knowledge from more complex and powerful models. However, knowledge distillation, in its conventional form, involves multiple stages of training, rendering it a computationally and memory demanding procedure. In this paper, a novel single-stage self knowledge distillation method is proposed, namely Online Subclass Knowledge Distillation (OSKD), that aims at revealing the similarities inside classes, so as to improve the performance of any deep neural model in an online manner. Hence, as opposed to existing online distillation methods, we are able to acquire further knowledge from the model itself, without building multiple identical models or using multiple models to teach each other, rendering the proposed OSKD approach more efficient. The experimental evaluation on two datasets validates that the proposed method improves the classification performance.
Γλώσσα: Αγγλικά
Τόπος δημοσίευσης: Milan, Italy
Σελίδες: 8
DOI: 10.1109/ICPR48806.2021.9411995
ISBN: 978-1-7281-8808-9
ISSN: 1051-4651
Θεματική κατηγορία: [EL] Τεχνητή νοημοσύνη[EN] Artificial Intelligencesemantics logo
Λέξεις-κλειδιά: Lighweight Deep LearningKnowledge Distillation
Κάτοχος πνευματικών δικαιωμάτων: ©2020 IEEE
Διατίθεται ανοιχτά στην τοποθεσία: https://cidl.csd.auth.gr/resources/conference_pdfs//Efficient%20Online%20Subclass%20Knowledge%20Distillation%20for%20Image%20Classification.pdf
Ηλεκτρονική διεύθυνση του τεκμηρίου στον εκδότη: https://ieeexplore.ieee.org/document/9411995
Ηλεκτρονική διεύθυνση περιοδικού: https://ieeexplore.ieee.org/xpl/conhome/9411940/proceeding
Τίτλος πηγής δημοσίευσης: 2020 25th International Conference on Pattern Recognition (ICPR) Proceedings
Τεύχος: -
Σελίδες τεκμηρίου (στην πηγή): 1007-1014
Όνομα εκδήλωσης: 2020 25th International Conference on Pattern Recognition (ICPR)
Τοποθεσία εκδήλωσης: Milan, Italy
Ημ/νία έναρξης εκδήλωσης: 10/01/2021
Ημ/νία λήξης εκδήλωσης: 15/01/2021
Σημειώσεις: This research is co-financed by Greece and the European Union (European Social Fund - ESF) through the Operational Programme “Human Resources Development, Education and Lifelong Learning 2014-2020” in the context of the project “Lighweight Deep Learning Models for Signal and Information Analysis” (MIS 5047925).
Εμφανίζεται στις συλλογές:Ερευνητικές ομάδες

Αρχεία σε αυτό το τεκμήριο:
Αρχείο Περιγραφή ΣελίδεςΜέγεθοςΜορφότυποςΈκδοσηΆδεια
Efficient Online Subclass Knowledge Distillation for Image Classification.pdfAuthors version8 σελίδες2.36 MBAdobe PDFΤου συγγραφέα (post-refereeing)incΔείτε/ανοίξτε