Groupe de Lecture Apprentissage Profond

Format (Proposition Initiale)

Thèmes (Proposition Initiale)

L’idée est de se focaliser sur la description la plus simple et élémentaire du thème en question. On pourra repasser de manière approfondie ultérieurement.

  1. Introduction 27/01/2026
  2. Relaxation Probabiliste 04/02/2026
  3. Minimisation 17/02/2026
  4. Différenciation Automatique 03/03/2026
  5. Approximation Universelle 10/03/2026
  6. Hyperparamètres
  7. Renforcement
  8. Exemples d’implémentation (pytorch/jax)
  9. Régularisation des fonctionnelles de loss. Interprétation bayésienne.
  10. Échantillonnage de lois paramétrées
  11. Probabilité subjectives, entropies
  12. Historique de l’IA
  13. PINN (Physically Informed Neural Network)
  14. Processus Gaussien
  15. Neural Operators
  16. Tokenization, Vector Embedding
  17. Autocencoders et manifold hypothesis
  18. CNN (Convolutional Neural Networks) et images
  19. RNN (Recurent Neural Networks)
  20. LSTM (Long Short Term Memory)
  21. GAN (Generative Adversarial Networks)
  22. Transformer et mécanisme d’attention
  23. Modèles de Diffusion
  24. MCTS (Monte Carlo Tree Search)
  25. LLM Poisoning

Ressources

Livres

  1. MacKay: Information Theory, Inference and Learning Algorithms (bibliothèque laboratoire)
  2. Bishop : Deep Learning (bibliothèque laboratoire)
  3. Bach : Learning From First Principles (bibliothèque laboratoire)
  4. Goodfellow et al : Deep Learning (bibliothèque laboratoire)

Vulgarisation

Cours

  1. B. Galerne : Introduction to Deep Learning
  2. B. Galerne : Réseaux de Neurones profonds pour l’Apprentissage