- Créneau de 30-40 min sur la pause méridienne toutes les une à deux
semaines
Thèmes (Proposition Initiale)
L’idée est de se focaliser sur la description la plus simple et
élémentaire du thème en question. On pourra repasser de manière
approfondie ultérieurement.
- Introduction 27/01/2026
- Relaxation Probabiliste 04/02/2026
- Minimisation 17/02/2026
- Différenciation Automatique 03/03/2026
- Approximation Universelle
- Stone-Weierstrass
- Cas des réseaux de Neurones
- Hyperparamètres
- Train/Test Split
- CrossValidation
- Biais/Variance
- Régularisation des fonctionnelles de loss. Interprétation
bayésienne.
- Échantillonnage de lois paramétrées
- Probabilité subjectives, entropies
- Historique de l’IA
- PINN (Physically Informed Neural Network)
- Processus Gaussien
- Neural Operators
- Tokenization, Vector Embedding
- Autocencoders et manifold hypothesis
- CNN (Convolutional Neural Networks) et images
- RNN (Recurent Neural Networks)
- LSTM (Long Short Term Memory)
- GAN (Generative Adversarial Networks)
- Transformer et mécanisme d’attention
- Modèles de Diffusion
- MCTS (Monte Carlo Tree Search)
- Renforcement
- Exemples d’implémentation (pytorch/jax)
- LLM Poisoning
Ressources
Livres
- MacKay: Information Theory, Inference and Learning Algorithms
(bibliothèque laboratoire)
- Bishop : Deep Learning (bibliothèque laboratoire)
- Bach : Learning From First Principles (bibliothèque
laboratoire)
- Goodfellow et al : Deep Learning (bibliothèque laboratoire)
Vulgarisation
- LeCun: Quand la machine apprend
Cours
- B.
Galerne : Introduction to Deep Learning
- B.
Galerne : Réseaux de Neurones profonds pour l’Apprentissage