Explore les défis et les points de vue de l'apprentissage profond, en mettant l'accent sur le paysage des pertes, la généralisation et l'apprentissage caractéristique.
Couvre les fondamentaux de l'apprentissage automatique pour les physiciens et les chimistes, en mettant l'accent sur les tâches de classification d'images à l'aide de l'intelligence artificielle.
Couvre l'histoire et les concepts fondamentaux des réseaux neuronaux, y compris le modèle mathématique d'un neurone, la descente de gradient et le perceptron multicouche.
Couvre les bases des réseaux neuronaux, des fonctions d'activation, de la formation, du traitement d'image, des CNN, de la régularisation et des méthodes de réduction de dimensionnalité.
S'oriente vers l'approximation du réseau neuronal, l'apprentissage supervisé, les défis de l'apprentissage à haute dimension et la révolution expérimentale de l'apprentissage profond.
Introduit les principes fondamentaux de l'apprentissage statistique, couvrant l'apprentissage supervisé, la théorie de la décision, la minimisation des risques et l'ajustement excessif.
Couvre la classification des images, le clustering et les techniques d'apprentissage automatique telles que la réduction de la dimensionnalité et l'apprentissage par renforcement.
Explore l'apprentissage à partir de données interconnectées avec des graphiques, couvrant les objectifs de recherche modernes de ML, les méthodes pionnières, les applications interdisciplinaires, et la démocratisation du graphique ML.
Il donne une vue d'ensemble de l'École des sciences informatiques et de la communication de l'EPFL, mettant en évidence ses domaines de recherche et de corps professoraux les mieux classés.
Introduit l'apprentissage supervisé, couvrant la classification, la régression, l'optimisation des modèles, le surajustement, et les méthodes du noyau.
Introduit des réseaux de neurones artificiels et explore diverses techniques de réduction de la dimensionnalité telles que PCA, LDA, Kernel PCA et t-SNE.
Explore les techniques d'apprentissage non supervisées pour réduire les dimensions des données, en mettant l'accent sur l'APC, l'ADL et l'APC du noyau.
S'insère dans le compromis entre la flexibilité du modèle et la variation des biais dans la décomposition des erreurs, la régression polynomiale, le KNN, et la malédiction de la dimensionnalité.
Introduit les bases de la science des données, couvrant les arbres de décision, les progrès de l'apprentissage automatique et l'apprentissage par renforcement profond.
Offre des informations sur la physique statistique de l'apprentissage, explorant la relation entre la structure du réseau neuronal et les systèmes désordonnés.
Se penche sur les défis de l'apprentissage profond, en explorant la dimensionnalité, les performances et les phénomènes sur-adaptés dans les réseaux neuronaux.