Couvre l'inférence, la construction de modèles, la sélection de variables, la robustesse, la régression régularisée, les modèles mixtes et les méthodes de régression.
Explore les techniques avancées de modélisation à plusieurs niveaux, y compris l'adaptation de modèles distincts, l'estimation des coefficients et la vérification des résidus pour l'évaluation des modèles.
Explore les effets aléatoires, la vérification du modèle et les effets imbriqués par rapport aux effets croisés dans la modélisation de régression moderne.
Couvre les moindres carrés pondérés itératifs, la régression de Poisson et l'analyse bayésienne des données sur l'orge de printemps à l'aide de modèles mixtes.
Couvre l'analyse de la variance, de la construction du modèle, de la sélection des variables et de l'estimation des fonctions dans les méthodes de régression.
Couvre les bases de la régression linéaire et la façon de résoudre les problèmes d'estimation en utilisant les moindres carrés et la notation matricielle.
Examine la régression probabiliste linéaire, couvrant les probabilités articulaires et conditionnelles, la régression des crêtes et l'atténuation excessive.
Couvre les modèles linéaires, y compris la régression, les dérivés, les gradients, les hyperplans et la transition de classification, en mettant laccent sur la minimisation des risques et des mesures dévaluation.
Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Explore les principes fondamentaux de la régression linéaire, en soulignant limportance des techniques de régularisation pour améliorer la performance du modèle.