IA : Théorie et Algorithmes : Réseaux de neurones (Live Virtual Class)

Blended learning

À qui s'adresse la formation?

Développeurs, Web Designer, Développeurs expérimentés, Ingénieurs, Ingénieurs Systèmes, Responsables informatiques

Durée

2,00 jour(s)

Langues(s) de prestation

EN FR

Prochaine session

07.12.2024
Lieu
Live Virtual Class

Prix

1300,00€

Prérequis

Algorithmique, Probabilités, Statistiques

Objectifs

Comprendre les concepts de Deep Learning (réseaux de neurones profonds)
Maîtriser les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones
Connaître les différentes architectures fondamentales existantes et maîtriser leurs implémentations fondamentales
Maîtriser les méthodologies de mise en place de réseaux de neurones, les points forts et les limites de ces outils
Connaître les briques de base du Deep Learning: réseaux de neurones simples, convolutifs et récursifs
Appréhender les modèles plus avancés: auto-encodeurs, gans, apprentissage par renforcement

Contenu

1. Réseaux de neurones: Concepts fondamentaux d'un réseau de neurones
  • Le réseau de neurones: architecture, fonctions d'activation et de pondération des activations précédentes
  • L'apprentissage d'un réseau de neurones
  • Modélisation d'un réseau de neurones: modélisation des données d'entrée et de sortie selon le type de problème.
  • Structure du réseau
  • Fonction de combinaison
  • Fonction d’activation
  • Propagation de l’information
2. MLP
  • Définition
  • Structure
  • Algorithme de propagation
  • Apprentissage
  • TP: Mise en situation: Analyse d’un algorithme MLP
3. Convolutional Net
  • Blocs de construction
    • Couche de convolution (CONV)
    • Paramétrage
    • Couche de pooling (POOL)
    • Couches de correction (ReLU, sigmoïde, etc.)
    • Couche entièrement connectée (FC)
    • Couche de perte (LOSS)
    • Exemples de modèles de CNN
  • Choix des hyperparamètres
    • Nombre de filtres
    • Forme du filtre
    • Forme du Max Pooling
  • Méthodes de régularisation
    • Empirique
    • Dropout
    • Données artificielles
    • Explicit
    • Taille du réseau
    • Dégradation du poids
    • La limitation du vecteur de poids
4. Recurrent Net: LSTM
  • Architecture
  • Training
  • TP: Application
5. Bayesian Net
  • Définition formelle
    • Loi de probabilité jointe
    • Propriété de Markov globale
  • Inférence
    • Définition et complexité
    • Inférence exacte
    • Inférence approchée
  • Apprentissage automatique
    • Apprentissage des paramètres
    • Apprentissage de la structure
  • Variantes
  • Réseau bayésien dynamique
  • Classifieur bayésien naïf
  • Diagramme causal
  • AutoEncoder
    • Définition
    • Architecture
    • Formalisation générale
    • Word2vect model
    • Glove model
    • TP: Utilisation du Word2vect model Algorithm pour le calcul de similarité sémantique
  • Reinforcement Learning
    • Définition
    • Formulation d’un problème de Reinforcement learning
    • Quelques exemples de cas d’usage
    • Les caractéristiques de l’apprentissage par renforcement
    • Les différents types d’apprentissage par renforcement
    • Les défis de l’apprentissage par renforcement
    • Avantages et inconvénients
  • GAN (Generative Adversarial Networks)
    • Architecture
    • Propriétés mathématiques
    • Training GAN
    • Évaluation GAN
    • TP: Utilisation d’un GAN

Certificat, diplôme

Une attestation de participation sera transmise aux participants

Prochaine session

Date
Ville
Language & prix
07.12.2024

08.12.2024
Live Virtual Class
FR 1300,00€
20.02.2025

21.02.2025
Live Virtual Class
FR 1300,00€

Contact pour cette formation

Nathalie Thielemans / Nassera Aici

Ces formations pourraient vous intéresser

EN
Journée
Informatique et systèmes d'information - Analyse programmation - Programmation - Programmation application mobile
FR
Journée
Windhof (Koerich)
Informatique et systèmes d'information - Informatique verte
13.01.2025