Please use this identifier to cite or link to this item: https://hdl.handle.net/20.500.14279/10742
DC FieldValueLanguage
dc.contributor.advisorChatzis, Sotirios P.-
dc.contributor.authorPartaourides, Charalampos-
dc.date.accessioned2018-03-07T09:37:58Z-
dc.date.available2018-03-07T09:37:58Z-
dc.date.issued2018-01-
dc.identifier.urihttps://hdl.handle.net/20.500.14279/10742-
dc.descriptionΤο διεπιστημονικό πεδίο της πολυεπίπεδης μάθησης διερευνά την εκπαίδευση πολύπλοκων ιεραρχικών μαθηματικών μοντέλων με τη χρήση συνόλων πολυδιάστατων δεδομένων και έχει επιφέρει μεγάλες αποδόσεις σε προβλήματα τεχνητής νοημοσύνης, όπως αναγνώριση αντικειμένων, κατανόηση φυσικής γλώσσας, αναγνώριση ομιλίας και ρομποτικής. Η ενσωμάτωση Μπεϋζιανής συμπερασματολογίας στην εκπαίδευση μπορεί να επιφέρει ακόμη μεγαλύτερες αποδόσεις λόγω της έμφυτης ιδιαιτερότητας να αντιμετωπίζει την επιστημική αβεβαιότητα που διακατέχει τα πολυεπίπεδα μοντέλα λόγω των επιλογών στη δομή των μοντέλων και στις παραμέτρους. Για το σκοπό αυτό, διερευνήθηκε η εφαρμογή Μπεϋζιανής συμπερασματολογίας στα τρία κύρια δομικά στοιχεία των πολυεπίπεδων μοντέλων, στα συναπτικά βάρη (synaptic weights), στις κρυμμένες/λανθάνουσες καταστάσεις (hidden/latent units) και στις μη γραμμικές συναρτήσεις (feature functions), με τη χρήση καινοτόμων μαθηματικών μοντέλων. Τα αποτελέσματα έδειξαν πως η χρήση προσεγγιστικής Μπεϋζιανής συμπερασματολογίας και η χρήση πιο πλούσιων και εκφραστικών κατανομών παρουσιάζουν στατιστικά σημαντικές βελτιώσεις στις αποδόσεις σε διάφορα σύνολα δεδομένων. Αυτό επιτυγχάνεται λόγω της δυνατότητας που προσφέρουν στα μοντέλα να συλλάβουν σε καλύτερο βαθμό τις δυσεύρετες κρυμμένες εξαρτήσεις των πολυδιάστατων δεδομένων εκπαίδευσης.en_US
dc.description.abstractDeep learning has achieved state of the art performance in various challenging machine learning tasks pushing the Artificial Intelligence frontier into new heights. Tasks like object recognition, speech perception, language understanding and robotics are improving year by year. This is mainly due to the recent breakthroughs in Bayesian inference, the increased volume of datasets and the increased computational power. These make it feasible to tractably train these challenging hierarchical structured models that contain millions of parameters. Deep Learning is an umbrella term which entails numerous deep architecture models that are able to capture even the most complex dynamics of the environment. Typically, they are trained under the maximum likelihood estimation paradigm. Unfortunately, in many real world tasks the high dimensionality of the observations results in even the largest datasets to being sparse. As such, there is an immense need for the training algorithm to compensate the uncertainty introduced by the data sparsity, overcome the model’s overfitting tendencies and in result generalize well. The statistical method of Bayesian inference provides a mathematically coherent way of dealing with data sparsity and overfitting. It essentially uses the Bayes theorem to accumulate evidence-based knowledge. This is achieved by postulating probability distributions over the parameters instead of trying to derive point estimates of them. Under the Bayesian view, we impose a prior distribution that encapsulates our initial belief about the model’s dynamics and we correct that belief as we are presented with more data; this consists in inferring the posterior distribution. It is conspicuous that the choice of the distribution heavily controls the expressiveness of the model. In this thesis, we present innovative approaches to train deep networks by considering sparsity, skewness and heavy tails on the form of the parameters distribution. Specifically, among our contributions, we impose a sparsity inducing distribution over the network synaptic weights to improve generalization. On a different vein, we consider the imposition of a skew normal distribution over the latent variables to increase the deep networks capacity. In parallel, we examine the efficacy of inferring the feature functions by devising a novel random sampling rational combined by an optimizable sample weighting scheme. The models derived by the aforementioned approaches are trained by means of approximate Bayesian inference scheme to allow for scalability in large datasets. We exhibit the advantages of these methods over existing approaches by conducting an extensive experimental evaluation using benchmarken_US
dc.formatpdfen_US
dc.language.isoenen_US
dc.publisherΤμήμα Ηλεκτρολόγων Μηχανικών και Μηχανικών Ηλεκτρονικών Υπολογιστών και Πληροφορικής, Σχολή Μηχανικής και Τεχνολογίας, Τεχνολογικό Πανεπιστήμιο Κύπρουen_US
dc.rightsΑπαγορεύεται η δημοσίευση ή αναπαραγωγή, ηλεκτρονική ή άλλη χωρίς τη γραπτή συγκατάθεση του δημιουργού και κατόχου των πνευματικών δικαιωμάτων.en_US
dc.subjectDeep learningen_US
dc.subjectMachine learningen_US
dc.subjectBayesian inferenceen_US
dc.subjectVariational Bayesen_US
dc.subjectRegularizationen_US
dc.titleBayesian inference techniques for Deep Learningen_US
dc.typePhD Thesisen_US
dc.affiliationCyprus University of Technologyen_US
dc.relation.deptDepartment of Electrical Engineering, Computer Engineering and Informaticsen_US
dc.description.statusCompleteden_US
cut.common.academicyear2018-2019en_US
dc.relation.facultyFaculty of Engineering and Technologyen_US
item.openairecristypehttp://purl.org/coar/resource_type/c_db06-
item.openairetypedoctoralThesis-
item.cerifentitytypePublications-
item.grantfulltextopen-
item.languageiso639-1en-
item.fulltextWith Fulltext-
crisitem.author.deptDepartment of Electrical Engineering, Computer Engineering and Informatics-
crisitem.author.deptDepartment of Electrical Engineering, Computer Engineering and Informatics-
crisitem.author.facultyFaculty of Engineering and Technology-
crisitem.author.facultyFaculty of Engineering and Technology-
crisitem.author.orcid0000-0002-8555-260X-
crisitem.author.orcid0000-0002-4956-4013-
crisitem.author.parentorgFaculty of Engineering and Technology-
crisitem.author.parentorgFaculty of Engineering and Technology-
Appears in Collections:Διδακτορικές Διατριβές/ PhD Theses
Files in This Item:
File Description SizeFormat
Abstract.pdfAbstract116.1 kBAdobe PDFView/Open
Παρταουρίδης Χαράλαμπος.pdfΠλήρες κείμενο1.72 MBAdobe PDFView/Open
CORE Recommender
Show simple item record

Page view(s) 1

604
Last Week
2
Last month
1
checked on Nov 24, 2024

Download(s) 1

420
checked on Nov 24, 2024

Google ScholarTM

Check


Items in KTISIS are protected by copyright, with all rights reserved, unless otherwise indicated.