Hugo Larochelle 299 Glenlake ave., apt. 2906 647-380-7809 Toronto, ON Canada larocheh@cs.toronto.edu M6P 4A6 http://www.cs.toronto.edu/ larocheh Études University of Toronto Depuis 2009 Postdoctorat, Informatique, supervisé par Prof. Geoffrey Hinton Toronto, ON Canada Université de Montréal 2004-2009 Ph.D., Informatique, supervisé par Prof. Yoshua Bengio Montréal, QC Canada Université de Montréal 2001-2004 Baccalauréat en Mathématiques et Informatique (Moyenne : 4.3) Montréal, QC Canada Cégep de Saint-Hyacinthe 1999-2001 Diplôme Collégial, Sciences Pures Saint-Hyacinthe, QC Canada Historique de travail Chercheur Octobre 2008 - Mars 2009 ApSTAT Technologies Montréal, QC Canada, H2W 2R2 http://www.apstat.com/ participation au projet intitulé Statistical Machine Learning Algorithms for Target Classification from Acoustic Signature, conduit par l entreprise ApSTAT Technologies et dirigé par Prof. Yoshua Bengio investigation et développement de différents algorithmes d apprentissage statistique pour la classification de signaux sonores Stagiaire de recherche Mai 2003 - Août 2003 Laboratoire d Informatique des Systèmes Adaptatifs (LISA) et Mai 2004 - Août 2004 Montréal, QC Canada investigation et développement de différents algorithmes d apprentissage statistique contribution à la librairie C++ PLearn, une librairie d apprentissage statistique (http://plearn.berlios.de/) Stagiaire de recherche Mai 2002 - Août 2002 Laboratoire de Recherche Appliquée en Montréal, QC Canada Linguistique Informatique (RALI) développement d un extracteur automatique de terminologie en Java investigation empirique de différentes métriques statistiques pour l extraction de terme Prix et distinctions Bourse postdoctorale du CRSNG, 2009 (80 000$ sur deux ans) Thèse de doctorat notée dans les 5% meilleures thèses de l Université de Montréal, 2009 Bourse d études supérieures du Canada du CRSNG, Ph.D., 2005 (105 000$ sur trois ans) Bourse d études supérieures du Canada du CRSNG, M.Sc., 2004 (17 500$) Bourse de passage direct au doctorat de l Université de Montréal, 2004 (10 000$) Bourse de recherche du premier cycle du CRSNG, 2004 (5625$) Bourse de recherche du premier cycle du CRSNG, 2003 (5625$) Bourse de recherche du premier cycle du CRSNG, 2002 (5625$)
Bourse du doyen de l Université de Montréal, 2003 (2000$) Bourse du doyen de l Université de Montréal, 2002 (2000$) Troisième position à la compétition de présentation d affiche du Deuxième Congrès Canada-France MITACS, 2008 Bourse CAE-Fraser, 2003 (2000$) Bourse d excellence, 2002 (1200$) Bourse d accueil de l Université de Montréal, 2001 (2000$) Médaille de Bronze du Gouverneur, 1999
Publications Thèse Études de techniques d apprentissage non-supervisé pour l amélioration de l entraînement supervisé de modèles connexionnistes Hugo Larochelle, Thèse de doctorat, Université de Montréal, 2009 Articles acceptés dans des revues avec comité de lecture Detonation Classification from Acoustic Signature with the Restricted Boltzmann Machine Yoshua Bengio, Nicolas Chapados, Olivier Delalleau, Hugo Larochelle, Xavier Saint-Mleux, Christian Hudon et Jérôme Louradour, À paraître dans Computational Intelligence, 2011 Stacked Denoising Autoencoders : learning useful representations in a deep network with a local denoising criterion Pascal Vincent, Hugo Larochelle, Isabelle Lajoie, Yoshua Bengio et Pierre-Antoine Manzagol, Journal of Machine Learning Research, Vol.11, pp.3371-3408, 2010 Tractable Multivariate Binary Density Estimation and the Restricted Boltzmann Forest Hugo Larochelle, Yoshua Bengio et Joseph Turian, Neural Computation, Vol.22, pp.2285-2307, 2010 Exploring Strategies for Training Deep Neural Networks Hugo Larochelle, Yoshua Bengio, Jérôme Louradour et Pascal Lamblin, Journal of Machine Learning Research, Vol.10, pp.1-40, 2009 Non-Local Estimation of Manifold Structure Yoshua Bengio, Martin Monperrus et Hugo Larochelle, Neural Computation, Vol.18, pp.2509-2528, 2006 Autres contributions avec comité de lecture (conférences) Learning Attentional Policies for Tracking and Recognition in Video with Deep Networks Loris Bazzani, Nando de Freitas, Hugo Larochelle, Vittorio Murino et Jo-Anne Ting, À paraître dans Proceedings of the 28th Annual International Conference on Machine Learning (ICML 2011), 2011 Bellevue, USA The Neural Autoregressive Distribution Estimator Hugo Larochelle et Iain Murray, À paraître dans Proceedings of the International Conference on Artificial Intelligence and Statistics (AISTATS 2011), 2011 Accepté comme présentation orale, Notable Paper Award (2% des soumissions) Learning to combine foveal glimpses with a third-order Boltzmann machine Hugo Larochelle et Geoffrey Hinton, Advances in Neural Information Processing Systems 23 (NIPS23), pp.1243-1251, 2010 Accepté comme présentation orale (2% des soumissions) Vancouver, Canada
Efficient Learning of Deep Boltzmann Machines Ruslan Salakhutdinov et Hugo Larochelle, Proceedings of the International Conference on Artificial Intelligence and Statistics (AISTATS 2010), pp.693-700, 2010 Sardaigne, Italie Deep Learning using Robust Interdependent Codes Hugo Larochelle, Dumitru Erhan et Pascal Vincent, Proceedings of the International Conference on Artificial Intelligence and Statistics (AISTATS 2009), pp.312-319, 2009 Clearwater Beach, USA Classification using Discriminative Restricted Boltzmann Machines Hugo Larochelle et Yoshua Bengio, Proceedings of the 25th Annual International Conference on Machine Learning (ICML 2008), pp.536-543, 2008 Helsinki, Finland Extracting and Composing Robust Features with Denoising Autoencoders Pascal Vincent, Hugo Larochelle, Yoshua Bengio et Pierre-Antoine Manzagol, Proceedings of the 25th Annual International Conference on Machine Learning (ICML 2008), pp.1096-1103, 2008 Helsinki, Finland Zero-data Learning of New Tasks Hugo Larochelle, Dumitru Erhan et Yoshua Bengio, Proceedings of the Twenty-Third AAAI Conference on Artificial Intelligence (AAAI 2008), pp.646-651, 2008 Chicago, USA An Empirical Evaluation of Deep Architectures on Problems with Many Factors of Variation Hugo Larochelle, Dumitru Erhan, Aaron Courville, James Bergstra et Yoshua Bengio, Proceedings of the 24th Annual International Conference on Machine Learning (ICML 2007), pp.473-480, 2007 Corvallis, USA Greedy Layer-Wise Training of Deep Networks Yoshua Bengio, Pascal Lamblin, Dan Popovici et Hugo Larochelle, Advances in Neural Information Processing Systems 19 (NIPS19), pp.153-160, 2007 Accepté comme présentation orale (3% des soumissions) Vancouver, Canada Non-Local Manifold Parzen Windows Yoshua Bengio, Hugo Larochelle et Pascal Vincent, Advances in Neural Information Processing Systems 18 (NIPS18), pp.115-122, 2006 Vancouver, Canada Contributions sans comité de lecture Generalization to a zero-data task : an empirical study Hugo Larochelle, Dumitru Erhan et Yoshua Bengio, Présentation au Learning Workshop, 2007 Puerto Rico, USA
Distributed Representation Prediction for Generalization to New Words Hugo Larochelle et Yoshua Bengio Rapport technique, Université de Montréal, 2006 Implantation et analyse d un modèle graphique de désambiguïsation à entraînement supervisé, semi-supervisé et non-supervisé Hugo Larochelle et Yoshua Bengio Projet de recherche à l Université de Montréal, 2003 Some Supervised Models in Disambiguation Hugo Larochelle, Christian Jauvin et Yoshua Bengio Affiche présentée à la conférence MITACS Échanges Québec, 2003 Montréal, Canada Étude de la pertinence de métriques statistiques pour la détection de termes dans un document Hugo Larochelle et Philippe Langlais Rapport technique, Université de Montréal, 2002
Autres activités académiques J ai fait de la révision d articles pour les journaux/conférences suivantes : JMLR, IJCV, IEEE-TNN, COST, IJPRAI, NIPS2008, ICML2009, NIPS2009, AISTATS2010, ICML2010, AISTATS2011, IJCAI2011, ICML2011, UAI2011. En mai 2010, j ai été invité à présenter mes travaux de recherche à l Université Paris-Sud, en France. En mars 2010, j ai présenté un tutoriel sur les réseaux de neurones profonds à l Université Laval. Le tutoriel était étendu sur 2 jours, totalisant 9 heures de matériel. En avril 2006, j ai présenté un tutoriel sur l application des réseaux de neurones à des problèmes de traitement automatique du langage naturel (TALN), dans le cadre des séminaires RALI-OLST, à l Université de Montréal. J ai co-organisé le Deep Learning Workshop, tenu en tant que rencontre satellite à la conférence NIPS 2007. Pour plus de détails, visiter http://www.iro.umontreal.ca/ lisa/deepnips2007. J ai été démonstrateur pour le cours IFT6266 Algorithmes d apprentissage donné par Prof. Douglas Eck au trimestre d automne 2007, à l Université de Montréal. Ce travail a impliqué les tâches suivantes : participation à la sélection du contenu traité dans le cours, enseignement lors d une période de cours de mise à niveau, écriture et correction de devoirs, et interactions avec les étudiants lors de périodes de disponibilité hors-cours de questions/réponses. J ai été démonstrateur pour le cours IFT3395/6390 Fondements de l apprentissage machine donné par Prof. Pascal Vincent au trimestre d hiver 2007, à l Université de Montréal. Ce travail a impliqué les tâches suivantes : enseignement lors de périodes de démonstration hebdomadaires (contenu pratique ), écriture et correction de devoirs, et interactions avec les étudiants lors de périodes de disponibilité hors-cours de questions/réponses. En collaboration avec Prof. Doina Precup de l Université McGill, j ai créé et organisé les Séminaires UdeM-McGill-MITACS d Apprentissage Statistique, de 2005 à 2008. Cette série de séminaires présente les travaux d étudiants et professeurs de Montréal ainsi que de chercheurs connus du domaine provenant de partout à travers le monde. Du début 2009 à l automne 2010, j ai géré les séminaires du groupe d apprentissage statistique de l Université de Toronto. Connaissances Langages de programmation : C++, C, Java, Python, Matlab, HTML, L A TEX, Scheme, Prolog, BASH shell scripting, CSH shell scripting Programmes et Librairies : SVN, CVS, PLearn, LAPACK, BLAS Langues parlées/écrites : Français et Anglais