Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Examine la régression probabiliste linéaire, couvrant les probabilités articulaires et conditionnelles, la régression des crêtes et l'atténuation excessive.
Couvre l'apprentissage supervisé en mettant l'accent sur la régression linéaire, y compris des sujets comme la classification numérique, la détection des pourriels et la prédiction de la vitesse du vent.
Introduit l'apprentissage supervisé, couvrant la classification, la régression, l'optimisation des modèles, le surajustement, et les méthodes du noyau.
Discute des arbres de régression, des méthodes d'ensemble et de leurs applications dans la prévision des prix des voitures d'occasion et des rendements des stocks.
Couvre un examen des concepts d'apprentissage automatique, y compris l'apprentissage supervisé, la classification vs régression, les modèles linéaires, les fonctions du noyau, les machines vectorielles de soutien, la réduction de la dimensionnalité, les modèles génératifs profonds et la validation croisée.
Introduit les bases de l'apprentissage automatique supervisé, couvrant les types, les techniques, le compromis biais-variance et l'évaluation du modèle.
Couvre les modèles linéaires, y compris la régression, les dérivés, les gradients, les hyperplans et la transition de classification, en mettant laccent sur la minimisation des risques et des mesures dévaluation.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Couvre les bases de la régression linéaire et la façon de résoudre les problèmes d'estimation en utilisant les moindres carrés et la notation matricielle.
Couvre les techniques d'apprentissage supervisées et non supervisées dans l'apprentissage automatique, en mettant en évidence leurs applications dans la finance et l'analyse environnementale.
Couvre l'inférence, la construction de modèles, la sélection de variables, la robustesse, la régression régularisée, les modèles mixtes et les méthodes de régression.
Introduit des concepts fondamentaux d'apprentissage automatique, couvrant la régression, la classification, la réduction de dimensionnalité et des modèles générateurs profonds.
Explore la régression logistique, les fonctions de coût, la descente en gradient et la modélisation de probabilité à l'aide de la fonction sigmoïde logistique.