Please use this identifier to cite or link to this item: http://ktisis.cut.ac.cy/handle/10488/10742
Title: Bayesian inference techniques for Deep Learning
Authors: Partaourides, Charalampos 
Keywords: Deep learning;Machine learning;Bayesian inference;Variational Bayes;Regularization
Advisor: Chatzis, Sotirios P.
Issue Date: Jan-2018
Publisher: Τμήμα Ηλεκτρολόγων Μηχανικών και Μηχανικών Ηλεκτρονικών Υπολογιστών και Πληροφορικής, Σχολή Μηχανικής και Τεχνολογίας, Τεχνολογικό Πανεπιστήμιο Κύπρου
Abstract: Deep learning has achieved state of the art performance in various challenging machine learning tasks pushing the Artificial Intelligence frontier into new heights. Tasks like object recognition, speech perception, language understanding and robotics are improving year by year. This is mainly due to the recent breakthroughs in Bayesian inference, the increased volume of datasets and the increased computational power. These make it feasible to tractably train these challenging hierarchical structured models that contain millions of parameters. Deep Learning is an umbrella term which entails numerous deep architecture models that are able to capture even the most complex dynamics of the environment. Typically, they are trained under the maximum likelihood estimation paradigm. Unfortunately, in many real world tasks the high dimensionality of the observations results in even the largest datasets to being sparse. As such, there is an immense need for the training algorithm to compensate the uncertainty introduced by the data sparsity, overcome the model’s overfitting tendencies and in result generalize well. The statistical method of Bayesian inference provides a mathematically coherent way of dealing with data sparsity and overfitting. It essentially uses the Bayes theorem to accumulate evidence-based knowledge. This is achieved by postulating probability distributions over the parameters instead of trying to derive point estimates of them. Under the Bayesian view, we impose a prior distribution that encapsulates our initial belief about the model’s dynamics and we correct that belief as we are presented with more data; this consists in inferring the posterior distribution. It is conspicuous that the choice of the distribution heavily controls the expressiveness of the model. In this thesis, we present innovative approaches to train deep networks by considering sparsity, skewness and heavy tails on the form of the parameters distribution. Specifically, among our contributions, we impose a sparsity inducing distribution over the network synaptic weights to improve generalization. On a different vein, we consider the imposition of a skew normal distribution over the latent variables to increase the deep networks capacity. In parallel, we examine the efficacy of inferring the feature functions by devising a novel random sampling rational combined by an optimizable sample weighting scheme. The models derived by the aforementioned approaches are trained by means of approximate Bayesian inference scheme to allow for scalability in large datasets. We exhibit the advantages of these methods over existing approaches by conducting an extensive experimental evaluation using benchmark
Description: Το διεπιστημονικό πεδίο της πολυεπίπεδης μάθησης διερευνά την εκπαίδευση πολύπλοκων ιεραρχικών μαθηματικών μοντέλων με τη χρήση συνόλων πολυδιάστατων δεδομένων και έχει επιφέρει μεγάλες αποδόσεις σε προβλήματα τεχνητής νοημοσύνης, όπως αναγνώριση αντικειμένων, κατανόηση φυσικής γλώσσας, αναγνώριση ομιλίας και ρομποτικής. Η ενσωμάτωση Μπεϋζιανής συμπερασματολογίας στην εκπαίδευση μπορεί να επιφέρει ακόμη μεγαλύτερες αποδόσεις λόγω της έμφυτης ιδιαιτερότητας να αντιμετωπίζει την επιστημική αβεβαιότητα που διακατέχει τα πολυεπίπεδα μοντέλα λόγω των επιλογών στη δομή των μοντέλων και στις παραμέτρους. Για το σκοπό αυτό, διερευνήθηκε η εφαρμογή Μπεϋζιανής συμπερασματολογίας στα τρία κύρια δομικά στοιχεία των πολυεπίπεδων μοντέλων, στα συναπτικά βάρη (synaptic weights), στις κρυμμένες/λανθάνουσες καταστάσεις (hidden/latent units) και στις μη γραμμικές συναρτήσεις (feature functions), με τη χρήση καινοτόμων μαθηματικών μοντέλων. Τα αποτελέσματα έδειξαν πως η χρήση προσεγγιστικής Μπεϋζιανής συμπερασματολογίας και η χρήση πιο πλούσιων και εκφραστικών κατανομών παρουσιάζουν στατιστικά σημαντικές βελτιώσεις στις αποδόσεις σε διάφορα σύνολα δεδομένων. Αυτό επιτυγχάνεται λόγω της δυνατότητας που προσφέρουν στα μοντέλα να συλλάβουν σε καλύτερο βαθμό τις δυσεύρετες κρυμμένες εξαρτήσεις των πολυδιάστατων δεδομένων εκπαίδευσης.
URI: http://ktisis.cut.ac.cy/handle/10488/10742
Rights: Απαγορεύεται η δημοσίευση ή αναπαραγωγή, ηλεκτρονική ή άλλη χωρίς τη γραπτή συγκατάθεση του δημιουργού και κατόχου των πνευματικών δικαιωμάτων.
Type: PhD Thesis
Appears in Collections:Διδακτορικές Διατριβές/ PhD Theses

Files in This Item:
File Description SizeFormat 
Abstract.pdfAbstract116.1 kBAdobe PDFView/Open
Show full item record

Page view(s) 20

70
Last Week
7
Last month
checked on Nov 15, 2018

Download(s) 20

30
checked on Nov 15, 2018

Google ScholarTM

Check


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.