Groupe de Lecture Apprentissage Profond

Format (Proposition Initiale)

Thèmes (Proposition Initiale)

L’idée est de se focaliser sur la description la plus simple et élémentaire du thème en question. On pourra repasser de manière approfondie ultérieurement.

  1. Introduction 27/01/2026
  2. Relaxation Probabiliste 04/02/2026
  3. Minimisation 17/02/2026
  4. Différenciation Automatique 03/03/2026
  5. Approximation Universelle
  6. Hyperparamètres
  7. Régularisation des fonctionnelles de loss. Interprétation bayésienne.
  8. Échantillonnage de lois paramétrées
  9. Probabilité subjectives, entropies
  10. Historique de l’IA
  11. PINN (Physically Informed Neural Network)
  12. Processus Gaussien
  13. Neural Operators
  14. Tokenization, Vector Embedding
  15. Autocencoders et manifold hypothesis
  16. CNN (Convolutional Neural Networks) et images
  17. RNN (Recurent Neural Networks)
  18. LSTM (Long Short Term Memory)
  19. GAN (Generative Adversarial Networks)
  20. Transformer et mécanisme d’attention
  21. Modèles de Diffusion
  22. MCTS (Monte Carlo Tree Search)
  23. Renforcement
  24. Exemples d’implémentation (pytorch/jax)
  25. LLM Poisoning

Ressources

Livres

  1. MacKay: Information Theory, Inference and Learning Algorithms (bibliothèque laboratoire)
  2. Bishop : Deep Learning (bibliothèque laboratoire)
  3. Bach : Learning From First Principles (bibliothèque laboratoire)
  4. Goodfellow et al : Deep Learning (bibliothèque laboratoire)

Vulgarisation

Cours

  1. B. Galerne : Introduction to Deep Learning
  2. B. Galerne : Réseaux de Neurones profonds pour l’Apprentissage