UNIVERSITÉ DE SHERBROOKE Département d informatique

Documents pareils
Chapitre 2. Eléments pour comprendre un énoncé

Raisonnement probabiliste

Intelligence Artificielle Planification

ILT. Interfacultair Instituut voor Levende Talen. Actes de communication. Serge Verlinde Evelyn Goris. Katholieke Universiteit Leuven

Organigramme / Algorigramme Dossier élève 1 SI

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Nouveau Barème W.B.F. de points de victoire 4 à 48 donnes

MCMC et approximations en champ moyen pour les modèles de Markov

Probabilités III Introduction à l évaluation d options

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Moments des variables aléatoires réelles

TRANSPORT ET LOGISTIQUE :

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Problèmes d ordonnancement dans les systèmes de production. Journée Automatique et Optimisation Université de Paris Mars 2003

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction

INF 232: Langages et Automates. Travaux Dirigés. Université Joseph Fourier, Université Grenoble 1 Licence Sciences et Technologies

IFT3245. Simulation et modèles

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Université Paris-Dauphine DUMI2E 1ère année, Applications

TSTI 2D CH X : Exemples de lois à densité 1

«Cours Statistique et logiciel R»

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Continuité et dérivabilité d une fonction

Décision Markovienne appliquée à un jeu de stop ou encore : Pickomino (Heckmeck Am Bratwurmeck)

Algorithmique des Systèmes Répartis Protocoles de Communications

L exclusion mutuelle distribuée

Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases)

Simulation de variables aléatoires

COMPRENDRE. Le métier de courtier en travaux

Initiation à l algorithmique

Chaînes de Markov au lycée

LA MESURE DE PRESSION PRINCIPE DE BASE

Résolution d équations non linéaires

Dérivation : Résumé de cours et méthodes

Cours d algorithmique pour la classe de 2nde

Contrôle stochastique d allocation de ressources dans le «cloud computing»

Exemples de problèmes et d applications. INF6953 Exemples de problèmes 1

Coup de Projecteur sur les Réseaux de Neurones

Bases de données réparties: Fragmentation et allocation

Algorithmique et programmation : les bases (VBA) Corrigé

Modélisation et simulation

1 Introduction C+ + Algorithm e. languag. Algorigramm. machine binaire. 1-1 Chaîne de développement. Séance n 4

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Systèmes décisionnels et programmation avancée

Contrat de bail pour appartements de vacances meublés/ maisons de vacances meublées à usage privé (3 mois max.)

Francis BISSON ( ) Kenny CÔTÉ ( ) Pierre-Luc ROGER ( ) IFT702 Planification en intelligence artificielle

Manuel d utilisation 26 juin Tâche à effectuer : écrire un algorithme 2

Maison des Arts et Métiers Allée Pierre de Coubertin Apt TALENCE CONTRAT DE RESIDENCE UNIVERSITAIRE

Langage SQL : créer et interroger une base

ALGORITHME GENETIQUE ET MODELE DE SIMULATION POUR L'ORDONNANCEMENT D'UN ATELIER DISCONTINU DE CHIMIE

Présentation du PL/SQL

Cours de méthodes de scoring

4.2 Unités d enseignement du M1

CHAPITRE 5. Stratégies Mixtes

Travaux dirigés d introduction aux Probabilités

Extrait du poly de Stage de Grésillon 1, août 2010

Texte Agrégation limitée par diffusion interne

CONDITIONS GENERALES DE LOCATION DU CLOS DE KERBERDERY. de location initialement prévue sur le présent contrat, sauf accord du propriétaire.

Pourquoi l apprentissage?

Couplage efficace entre Optimisation et Simulation stochastique Application à la maintenance optimale d une constellation de satellites

Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation

Évaluation et implémentation des langages

Chapitre VI - Méthodes de factorisation

Quantification Scalaire et Prédictive

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Cours de mathématiques

Jean-Philippe Préaux

Initiation à la Programmation en Logique avec SISCtus Prolog

EES : Engineering Equation Solver Fiche récapitulative - Marie-Sophie Cabot

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Initiation à la programmation en Python

Espérance conditionnelle

K. Ammar, F. Bachoc, JM. Martinez. Séminaire ARISTOTE - 23 octobre Palaiseau

Semestre 1. Objectifs Approfondissement de l environnement Java et de son interface de programmation d applications : réseaux, et processus.

Cours des Méthodes de Résolution Exactes Heuristiques et Métaheuristiques

Convention de portage de repas à domicile

Cours de Master Recherche

Fiche pédagogique : ma famille et moi

Utiliser un tableau de données

Coefficients binomiaux

Développements limités. Notion de développement limité

L apprentissage automatique

Programmation linéaire

Problèmes de Mathématiques Filtres et ultrafiltres

Objet : Proposition de partenariat avec le Fastt

Laboratoire d Informatique, de Traitement de l Information et des Systèmes EA établissements T. Paquet D. Olivier T. Lecroq A.

données en connaissance et en actions?

Calcul fonctionnel holomorphe dans les algèbres de Banach

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

APPORT DES RESEAUX BAYESIENS DANS LA PREVENTION DE LA DELINQUANCE

Conditions Générales. Télécharger. Site Internet : Mail : campingarclusuaz@orange.fr. Article 1 : Durée du séjour

ÉPREUVE COMMUNE DE TIPE Partie D

Demande d ouverture de compte auprès d ISAN Canada

Température corporelle d un castor (une petite introduction aux séries temporelles)

L application est utilisable pour toute personne disposant d un compte Qobuz.

Economie de l Incertain et des Incitations

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Transcription:

UNIVERSITÉ DE SHERBROOKE Département d informatique IFT 615 Intelligence artificielle Examen final Été 2016 Le mardi 9 août, 9 h 00 à 12 h 00, au D3-2041 CHARGÉ DE COURS Frédéric Bergeron (frederic.bergeron2@usherbrooke.ca) INSTRUCTIONS L examen dure 3 heures. Le manuel (livre de référence) n est pas autorisé. Par contre, deux (2) feuilles recto-verso de notes personnelles manuscrites sont autorisées. La calculatrice est acceptée. Par contre, tout autre appareil électronique est strictement interdit, en particulier tout appareil muni d un moyen de communication. L examen comporte sept (7) questions pour un total de quarante (40) points. Le questionnaire contient seize (16) pages incluant celle-ci. Répondez directement sur le questionnaire aux endroits encadrés. Des feuilles de brouillons vous sont fournies. Ne détachez aucune feuille de ce questionnaire, hormis les feuilles brouillons. Écrivez votre nom, prénom et matricule ci-dessous, puis signez. NOM : PRÉNOM : MATRICULE : SIGNATURE : Q1 /5 Q2 /4 Q3 /6 Q4 /7 Q5 /6 Q6 /7 Q7 /5 TOTAL /40 IFT615 Examen final E2016 Page 1 sur 16

Question 1 (5 points) Recherche locale a) (2 points) Supposons que nous cherchons à maximiser la valeur d une fonction quelconque à l aide de l algorithme de recuit simulé (simulated annealing). L état de départ (état COURANT) se trouve au sommet d un maximum local, c est-à-dire que tous les états voisins ont une valeur inférieure à l état COURANT. Notons SUIVANT comme étant l état aléatoire successeur de COURANT. Expliquez comment l algorithme va choisir le nœud qui sera le COURANT à la prochaine itération. b) (1.5 point) Supposons toujours que nous sommes dans un maximum local d une fonction que nous souhaitons maximiser à l aide de l algorithme de recuit simulé (simulated annealing). Quelle valeur de température (T) devrions-nous choisir pour nous échapper de ce maximum local le plus rapidement possible? IFT615 Examen final E2016 Page 2 sur 16

c) (1.5 point) Dans un algorithme génétique, que cherche-t-on à optimiser? Donnez un exemple de ce concret de cette fonction. IFT615 Examen final E2016 Page 3 sur 16

Question 2 (4 points) Logique du premier ordre Dans ce qui suit, a et b sont des constantes, f, g et h des fonctions et x, y, z des variables et P, Q et R sont des prédicats. a) (2 points) Calculer l unificateur le plus général (UPG) des paires de clauses suivantes. Si l unificateur n existe pas, écrivez «n existe pas» comme réponse. i) P(a,x) et P(y, z) ii) P(f(x), g(x)) et P(z, y) iii) P(f(x), h(z)) et P(x, g(x)) iv) P(a, g(f(x), h(x))) et P(y,z) b) (2 points) Soit les clauses suivantes : 1. P(a, b) 2. P(a, b) Q(b) R(a) 3. x y Q(x) P(y, z) R(z) 4. Q(b) P(a, b) S(a) 5. Q(a) 6. Q(b) P(a, a) 7. R(b) Utilisez la preuve par résolution pour prouver qu elles sont contradictoires. Vous devez indiquer clairement les différentes étapes, les clauses résolvantes à chaque étape et leurs unifications. IFT615 Examen final E2016 Page 4 sur 16

Question 3 (6 points) Réseaux bayésiens dynamiques a) (2.5 points) Soit un réseau bayésien avec les probabilités conditionnelles suivantes : A P(B=vrai A) vrai 0.4 faux 0.2 A C P(D=vrai A,C) vrai vrai 0.2 vrai faux 0.6 faux vrai 0.7 faux faux 0,8 C P(E C) vrai 0,8 faux 0,1 P(A=vrai) 0.3 P(C=vrai) 0.3 i) (1 point) Dessinez le réseau bayésien représenté par ces probabilités. ii) (1 point) Calculez la probabilité P(A=vrai, D=vrai, B=vrai, C=vrai, E=vrai). iii) (1 point) Calculez la probabilité P(B=vrai A=vrai, C=vrai). IFT615 Examen final E2016 Page 5 sur 16

b) (3 points) Les questions suivantes se rapportent au modèle de Markov caché. i) (1 point) Que permet de calculer le tableau alpha (α)? ii) (1 point) Que permet de calculer le tableau pi (π)? iii) (1 point) Que permet de calculer le tableau alpha étoile (α*)? IFT615 Examen final E2016 Page 6 sur 16

Question 4 (7 points) Processus de décision markovien et apprentissage par renforcement Soit le processus de décision markovien (PDM) ayant l espace d état S = {s 0,s 1,s 2,s 3 }, l ensemble d actions A={a 1,a 2,a 3 } et la fonction de récompense R(s 0 )=-1, R(s 1 )=-3, R(s 2 )=-2 et R(s 3 )=5, un facteur d escompte γ=0.3 et les distributions de transition suivantes : 0.3 a2 0.2 a1 0.4 a1 a2 S 1 0.7 1 a3 a3 0.1 a3 0.1 a2 0.5 S 0 0.4 a1 a2 0.4 0.8 a3 S 3 a2 a3 1 0.5 S 2 a2 0.6 a) (3 points) Simulez une itération de l algorithme d itération par valeur appliqué à ce PDM. Utilisez l initialisation V(s 0 )=1, V(s 1 )=-3, V(s 2 )=-4 et V(s 3 )=2. IFT615 Examen final E2016 Page 7 sur 16

b) (2 points) Donnez le plan qui serait retourné suite à l étape de l algorithme d itération par valeur faite en a). c) (2 points) Supposons maintenant que nous souhaitons faire l apprentissage par renforcement par Q-learning. Utilisez la fonction de récompense R(s 0 )=-1, R(s 1 )=-3, R(s 2 )=-2 et R(s 3 )=5, un taux d apprentissage α=0.2 et un taux d escompte γ=0.3. Soit l initialisation de la fonction action-valeur suivante : Q(s 0,a 1 ) = -2 Q(s 2,a 3 ) = 2 Q(s 0,a 2 ) = -4 Q(s 2,a 2 ) = 0 Q(s 1,a 3 ) = 3 Q(s 3,a 3 ) = 0 Q(s 1,a 2 ) = 1 Nous observons une transition de l état s 1 vers l état s 2 après avoir exécuté l action a 1. Exécutez la mise à jour de la fonction action-valeur à faire dans le cadre du Q-learning. IFT615 Examen final E2016 Page 8 sur 16

Question 5 (6 points) Apprentissage automatique Soit l ensemble d entraînement suivant : x t y t [0,0,-1] 1 [1,2,3] 0 [-1,0,4] 1 [2,3,2] 0 [0,1,2] 1 [4,3,5] 0 a) (2 points) Simulez une itération de l algorithme de la régression logistique sur les trois premiers éléments de cet ensemble (donc x 1, x 2 et x 3 ). Vous devez donc parcourir chacun des trois exemples une seule fois, du haut vers le bas. Utilisez un taux d apprentissage α = 0.1, et initiali sez le vecteur de poids w à [0,1,2] et le biais b à 0.6. IFT615 Examen final E2016 Page 9 sur 16

b) (2 points) La loi normale s exprime comme suit : G(x, μ, σ ) = 1 σ 2π e Calculez la dérivée partielle de G(x, µ, σ) par rapport à x. 1 2 (x μ σ )2 c) (1 point) Décrivez comment on peut développer de façon non biaisée un système basé sur un algorithme d apprentissage automatique. IFT615 Examen final E2016 Page 10 sur 16

d) (1 point) Expliquez la relation entre l erreur d entrainement et l erreur de test à l aide des notions de généralisation, d hyper-paramètres, de sous-apprentissage et de sur-apprentissage. IFT615 Examen final E2016 Page 11 sur 16

Question 6 (7 points) Vision par ordinateur et mise en contexte a) (3 points) Calculez le résultat de la corrélation de l image X par le filtre W ci-dessous. Supposez une valeur maximale à 255. 0 64 255 0 64 128 64 128 128 255 32 0 X 0.25 0.5 0.25 0.5 0.75 0.5 W b) (4 points) Vous devez concevoir un module pour un agent intelligent qui doit choisir des pièces musicales à faire écouter à un locataire d un habitat intelligent en fonction de sa stabilité émotionnelle. Pour créer une situation simple, nous supposerons que votre module ne connaît que la pièce (cuisine (Cu), salon (Sa), chambre (Ch) et bureau (Bu)) dans lequel se trouve le locataire. Les capteurs nous envoient cette information à chaque dix minutes. Si le locataire est dans une pièce au début d un intervalle de 10 minutes alors il y sera pour tout l intervalle. La variable qui nous intéresse est son état d humeur et elle peut prendre deux valeurs : positive (+) ou négative (-). Plus précisément, le module doit identifier la séquence de ses états d humeurs. Voici quelques exemples de séquence : [+ + + + + +] qui indique que le locataire est toujours d humeur positive ; [- - - - + + +] qui indique que le locataire a commencé la journée d une humeur négative, mais que par la suite elle est devenue positive. [- + - - + - -] qui indique le locataire traverse des cycles d humeur positive et négative. IFT615 Examen final E2016 Page 12 sur 16

Pour que l agent intelligent puisse choisir la pièce musicale appropriée, il est important de connaître la séquence exacte des états d humeur du locataire. Cependant, c est impossible de connaître la séquence exacte, mais on voudrait au moins savoir la séquence la plus probable. Le problème est que les capteurs nous donnent sa position, mais pas son état d humeur. Heureusement, des données antérieures sur le locataire nous apprennent que s il est d une humeur positive, alors à un moment il y a 6 chances sur 10 qu il le soit 10 minutes plus tard, sinon il est d une humeur négative. S il est d une humeur négative, alors il y a une chance sur 2 qu il le soit encore dans 10 minutes. De même que les probabilités qu il soit d une humeur x pour un intervalle de temps donné dépendent uniquement de son humeur lors de l intervalle précédent, la probabilité qu il soit dans une pièce pour un intervalle de temps dépend uniquement de son humeur lors de cet intervalle de temps. S il est d une humeur positive, alors il a 3 chances sur 10 qu il soit dans la cuisine, 2 chances sur 10 qu il soit dans sa chambre, 2 chances sur 10 qu il soit dans le salon et 3 chances sur 10 qu il soit dans le bureau. S il est d une humeur négative, alors il a 3 chances sur 10 qu il soit dans la chambre, 2 chances sur 10 qu il soit dans le bureau, 2 chances sur 10 qu il soit dans la cuisine et 3 chances sur 10 qu il soit dans le salon. Il est impossible de prévoir dans quelle humeur il sera au début d une séquence, vous pouvez assumer qu il y a autant de chance qu il soit d une humeur positive que d une humeur négative. i) (1 point) Parmi les modèles vus en classe, lequel semble le plus approprié pour cette situation? ii) (3 points) Expliquez intuitivement comment le modèle s utilise dans cette situation. Vous devez, entre autres, décrire ce qui vous semble pertinent à ce modèle parmi les suggestions suivantes : les variables, les états, les états successeurs, la fonction objectif, l e modèle de transition, les probabilités initiales, le modèle d observation, la règle d apprentissage, la condition d arrêt. IFT615 Examen final E2016 Page 13 sur 16

IFT615 Examen final E2016 Page 14 sur 16

Question 7 (4 points) Questions diverses a) (0.5 point) À quel type d agent se rattachent les algorithmes de jeux à deux adversaires? b) (0.5 point) À quel type d agent se rattachent les algorithmes de raisonnement probabilistes? c) (1 point) Dans A*, à quelle condition une heuristique est-elle admissible? d) (1 point) Qu est-ce que le modèle PEAS? Donnez une courte description générale ainsi qu une courte description de chaque composante. e) (1 point) Pourquoi est-il important d appliquer une technique de lissage à un modèle de langage? Donnez aussi un exemple de technique de lissage. IFT615 Examen final E2016 Page 15 sur 16

f) (1 point) Décrivez une façon d améliorer un algorithme de satisfaction de contraintes. Fin de l examen IFT615 Examen final E2016 Page 16 sur 16