Introduit des perceptrons multicouches (MLP) et couvre la régression logistique, la reformulation, la descente de gradient, AdaBoost et les applications pratiques.
Couvre les forêts de décision, la formation, les apprenants faibles, l'entropie, la stimulation, l'estimation de pose 3D et les applications pratiques.
Introduit les bases de l'apprentissage automatique, couvrant la classification supervisée, les limites de décision et l'ajustement de la courbe polynomiale.
Couvre le classificateur k-NN, la reconnaissance numérique manuscrite, la réduction de données, les applications, la construction de graphes, les limitations et la malédiction de la dimensionnalité.
Introduit les bases Python et NumPy pour l'informatique scientifique, couvrant les types de données, les fonctions, les tableaux, l'indexation et les opérations courantes.
Explore la maximisation des marges pour une meilleure classification à l'aide de machines vectorielles de support et l'importance de choisir le bon paramètre.
Introduit des bases d'optimisation, couvrant la régression logistique, les dérivés, les fonctions convexes, la descente de gradient et les méthodes de second ordre.
Explore la correspondance des données non linéaires avec des dimensions plus élevées à l'aide de la SVM et couvre l'expansion des caractéristiques polynomiales, la régularisation, les implications sonores et les méthodes d'ajustement des courbes.
Explique l'algorithme Adaboost pour construire des classificateurs forts à partir de faibles, en mettant l'accent sur l'amélioration des méthodes et la détection des visages.
Couvre les perceptrons multicouches (MLP) et leur application de la classification à la régression, y compris le théorème d'approximation universelle et les défis liés aux gradients.
Introduit des réseaux neuronaux convolutifs, couvrant les couches entièrement connectées, les convolutions, la mise en commun, les traductions PyTorch et des applications telles que l'estimation de pose à la main et l'estimation de tubalité.
Explore la réduction des dimensions linéaires grâce à la PCA, à la maximisation de la variance et à des applications réelles telles que l'analyse des données médicales.
Explore la perspective historique et le développement de l'algorithme AlphaGo, en se concentrant sur l'apprentissage automatique et les stratégies de jeu.
Couvre les techniques de réduction de dimensionnalité non linéaire à l'aide d'autoencodeurs, d'autoencodeurs profonds et d'autoencodeurs convolutifs pour diverses applications.
Explore PCA et LDA pour la réduction de dimensionnalité linéaire dans les données, en mettant l'accent sur les techniques de clustering et de séparation de classe.