- Créneau de 30-40 min sur la pause méridienne toutes les une à deux
semaines
Thèmes (Proposition Initiale)
L’idée est de se focaliser sur la description la plus simple et
élémentaire du thème en question. On pourra repasser de manière
approfondie ultérieurement.
- Introduction 27/01/2026
- Relaxation Probabiliste 04/02/2026
- Réseaux de Neurones
- Fonctions d’activation
- Approximation universelle
- Minimisation
- Formelle
- Gradient
- Gradient Stochastique
- Différenciation Automatique. Algorithme de Back Propagation.
- Régularisation des fonctionnelles de loss. Interprétation
bayésienne.
- Échantillonnage de lois paramétrées
- Probabilité subjectives, entropies
- Historique de l’IA
- PINN (Physically Informed Neural Network)
- Processus Gaussien
- Neural Operators
- Tokenization, Vector Embedding
- Autocencoders et manifold hypothesis
- CNN (Convolutional Neural Networks) et images
- RNN (Recurent Neural Networks)
- LSTM (Long Short Term Memory)
- GAN (Generative Adversarial Networks)
- Transformer et mécanisme d’attention
- Modèles de Diffusion
- MCTS (Monte Carlo Tree Search)
- Renforcement
- Exemples d’implémentation (pytorch/jax)
- Biais/Variance, LLM Poisoning
Ressources
Livres
- MacKay: Information Theory, Inference and Learning Algorithms
(bibliothèque laboratoire)
- Bishop : Deep Learning (bibliothèque laboratoire)
- Bach : Learning From First Principles (bibliothèque
laboratoire)
- Goodfellow et al : Deep Learning (bibliothèque laboratoire)
Vulgarisation
- LeCun: Quand la machine apprend
Cours
- B.
Galerne : Introduction to Deep Learning
- B.
Galerne : Réseaux de Neurones profonds pour l’Apprentissage