Please use this identifier to cite or link to this item:
https://hdl.handle.net/20.500.14279/10742
Title: | Bayesian inference techniques for Deep Learning | Authors: | Partaourides, Charalampos | Keywords: | Deep learning;Machine learning;Bayesian inference;Variational Bayes;Regularization | Advisor: | Chatzis, Sotirios P. | Issue Date: | Jan-2018 | Department: | Department of Electrical Engineering, Computer Engineering and Informatics | Faculty: | Faculty of Engineering and Technology | Abstract: | Deep learning has achieved state of the art performance in various challenging machine learning tasks pushing the Artificial Intelligence frontier into new heights. Tasks like object recognition, speech perception, language understanding and robotics are improving year by year. This is mainly due to the recent breakthroughs in Bayesian inference, the increased volume of datasets and the increased computational power. These make it feasible to tractably train these challenging hierarchical structured models that contain millions of parameters. Deep Learning is an umbrella term which entails numerous deep architecture models that are able to capture even the most complex dynamics of the environment. Typically, they are trained under the maximum likelihood estimation paradigm. Unfortunately, in many real world tasks the high dimensionality of the observations results in even the largest datasets to being sparse. As such, there is an immense need for the training algorithm to compensate the uncertainty introduced by the data sparsity, overcome the model’s overfitting tendencies and in result generalize well. The statistical method of Bayesian inference provides a mathematically coherent way of dealing with data sparsity and overfitting. It essentially uses the Bayes theorem to accumulate evidence-based knowledge. This is achieved by postulating probability distributions over the parameters instead of trying to derive point estimates of them. Under the Bayesian view, we impose a prior distribution that encapsulates our initial belief about the model’s dynamics and we correct that belief as we are presented with more data; this consists in inferring the posterior distribution. It is conspicuous that the choice of the distribution heavily controls the expressiveness of the model. In this thesis, we present innovative approaches to train deep networks by considering sparsity, skewness and heavy tails on the form of the parameters distribution. Specifically, among our contributions, we impose a sparsity inducing distribution over the network synaptic weights to improve generalization. On a different vein, we consider the imposition of a skew normal distribution over the latent variables to increase the deep networks capacity. In parallel, we examine the efficacy of inferring the feature functions by devising a novel random sampling rational combined by an optimizable sample weighting scheme. The models derived by the aforementioned approaches are trained by means of approximate Bayesian inference scheme to allow for scalability in large datasets. We exhibit the advantages of these methods over existing approaches by conducting an extensive experimental evaluation using benchmark | Description: | Το διεπιστημονικό πεδίο της πολυεπίπεδης μάθησης διερευνά την εκπαίδευση πολύπλοκων ιεραρχικών μαθηματικών μοντέλων με τη χρήση συνόλων πολυδιάστατων δεδομένων και έχει επιφέρει μεγάλες αποδόσεις σε προβλήματα τεχνητής νοημοσύνης, όπως αναγνώριση αντικειμένων, κατανόηση φυσικής γλώσσας, αναγνώριση ομιλίας και ρομποτικής. Η ενσωμάτωση Μπεϋζιανής συμπερασματολογίας στην εκπαίδευση μπορεί να επιφέρει ακόμη μεγαλύτερες αποδόσεις λόγω της έμφυτης ιδιαιτερότητας να αντιμετωπίζει την επιστημική αβεβαιότητα που διακατέχει τα πολυεπίπεδα μοντέλα λόγω των επιλογών στη δομή των μοντέλων και στις παραμέτρους. Για το σκοπό αυτό, διερευνήθηκε η εφαρμογή Μπεϋζιανής συμπερασματολογίας στα τρία κύρια δομικά στοιχεία των πολυεπίπεδων μοντέλων, στα συναπτικά βάρη (synaptic weights), στις κρυμμένες/λανθάνουσες καταστάσεις (hidden/latent units) και στις μη γραμμικές συναρτήσεις (feature functions), με τη χρήση καινοτόμων μαθηματικών μοντέλων. Τα αποτελέσματα έδειξαν πως η χρήση προσεγγιστικής Μπεϋζιανής συμπερασματολογίας και η χρήση πιο πλούσιων και εκφραστικών κατανομών παρουσιάζουν στατιστικά σημαντικές βελτιώσεις στις αποδόσεις σε διάφορα σύνολα δεδομένων. Αυτό επιτυγχάνεται λόγω της δυνατότητας που προσφέρουν στα μοντέλα να συλλάβουν σε καλύτερο βαθμό τις δυσεύρετες κρυμμένες εξαρτήσεις των πολυδιάστατων δεδομένων εκπαίδευσης. | URI: | https://hdl.handle.net/20.500.14279/10742 | Rights: | Απαγορεύεται η δημοσίευση ή αναπαραγωγή, ηλεκτρονική ή άλλη χωρίς τη γραπτή συγκατάθεση του δημιουργού και κατόχου των πνευματικών δικαιωμάτων. | Type: | PhD Thesis | Affiliation: | Cyprus University of Technology |
Appears in Collections: | Διδακτορικές Διατριβές/ PhD Theses |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
Abstract.pdf | Abstract | 116.1 kB | Adobe PDF | View/Open |
Παρταουρίδης Χαράλαμπος.pdf | Πλήρες κείμενο | 1.72 MB | Adobe PDF | View/Open |
CORE Recommender
Google ScholarTM
Check
Items in KTISIS are protected by copyright, with all rights reserved, unless otherwise indicated.