IA : Théorie et Algorithmes : Réseaux de neurones (Live Virtual Class)

Blended learning

Who is the training for?

Développeurs, Web Designer, Développeurs expérimentés, Ingénieurs, Ingénieurs Systèmes, Responsables informatiques

Duration

2,00 day(s)

Language(s) of service

EN FR

Next session

20.02.2025
Location
Live Virtual Class

Price

1300,00€

Prerequisites

Algorithmique, Probabilités, Statistiques

Goals

Comprendre les concepts de Deep Learning (réseaux de neurones profonds)
Maîtriser les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones
Connaître les différentes architectures fondamentales existantes et maîtriser leurs implémentations fondamentales
Maîtriser les méthodologies de mise en place de réseaux de neurones, les points forts et les limites de ces outils
Connaître les briques de base du Deep Learning: réseaux de neurones simples, convolutifs et récursifs
Appréhender les modèles plus avancés: auto-encodeurs, gans, apprentissage par renforcement

Contents

1. Réseaux de neurones: Concepts fondamentaux d'un réseau de neurones
  • Le réseau de neurones: architecture, fonctions d'activation et de pondération des activations précédentes
  • L'apprentissage d'un réseau de neurones
  • Modélisation d'un réseau de neurones: modélisation des données d'entrée et de sortie selon le type de problème.
  • Structure du réseau
  • Fonction de combinaison
  • Fonction d’activation
  • Propagation de l’information
2. MLP
  • Définition
  • Structure
  • Algorithme de propagation
  • Apprentissage
  • TP: Mise en situation: Analyse d’un algorithme MLP
3. Convolutional Net
  • Blocs de construction
    • Couche de convolution (CONV)
    • Paramétrage
    • Couche de pooling (POOL)
    • Couches de correction (ReLU, sigmoïde, etc.)
    • Couche entièrement connectée (FC)
    • Couche de perte (LOSS)
    • Exemples de modèles de CNN
  • Choix des hyperparamètres
    • Nombre de filtres
    • Forme du filtre
    • Forme du Max Pooling
  • Méthodes de régularisation
    • Empirique
    • Dropout
    • Données artificielles
    • Explicit
    • Taille du réseau
    • Dégradation du poids
    • La limitation du vecteur de poids
4. Recurrent Net: LSTM
  • Architecture
  • Training
  • TP: Application
5. Bayesian Net
  • Définition formelle
    • Loi de probabilité jointe
    • Propriété de Markov globale
  • Inférence
    • Définition et complexité
    • Inférence exacte
    • Inférence approchée
  • Apprentissage automatique
    • Apprentissage des paramètres
    • Apprentissage de la structure
  • Variantes
  • Réseau bayésien dynamique
  • Classifieur bayésien naïf
  • Diagramme causal
  • AutoEncoder
    • Définition
    • Architecture
    • Formalisation générale
    • Word2vect model
    • Glove model
    • TP: Utilisation du Word2vect model Algorithm pour le calcul de similarité sémantique
  • Reinforcement Learning
    • Définition
    • Formulation d’un problème de Reinforcement learning
    • Quelques exemples de cas d’usage
    • Les caractéristiques de l’apprentissage par renforcement
    • Les différents types d’apprentissage par renforcement
    • Les défis de l’apprentissage par renforcement
    • Avantages et inconvénients
  • GAN (Generative Adversarial Networks)
    • Architecture
    • Propriétés mathématiques
    • Training GAN
    • Évaluation GAN
    • TP: Utilisation d’un GAN

Certificate, diploma

Une attestation de participation sera transmise aux participants

Next session

Datum
City
Language and price
20.02.2025

21.02.2025
Live Virtual Class
FR 1300,00€

Organization contact details

Nathalie Thielemans / Nassera Aici

These courses might interest you