Compare L1 et L0 pénalisation en régression linéaire avec des conceptions orthogonales en utilisant des algorithmes gourmands et des comparaisons empiriques.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Aborde l'ajustement excessif dans l'apprentissage supervisé par le biais d'études de cas de régression polynomiale et de techniques de sélection de modèles.
Explore Ridge et Lasso Regression pour la régularisation dans les modèles d'apprentissage automatique, en mettant l'accent sur le réglage hyperparamétrique et la visualisation des coefficients des paramètres.
Explore l'apprentissage supervisé en économétrie financière, couvrant la régression linéaire, l'ajustement du modèle, les problèmes potentiels, les fonctions de base, la sélection de sous-ensembles, la validation croisée, la régularisation et les forêts aléatoires.
Examine la régression probabiliste linéaire, couvrant les probabilités articulaires et conditionnelles, la régression des crêtes et l'atténuation excessive.
Couvre la descente du gradient stochastique, la régression linéaire, la régularisation, l'apprentissage supervisé et la nature itérative de la descente du gradient.
Couvre la régression linéaire, la régularisation, les problèmes inverses, la tomographie par rayons X, la reconstruction d'images, l'inférence de données et l'intensité du détecteur.
Introduit la modélisation fondée sur les données en mettant l'accent sur la régression, couvrant la régression linéaire, les risques de raisonnement inductif, l'APC et la régression des crêtes.
Explore la construction de modèles dans la régression linéaire, couvrant des techniques comme la régression par étapes et la régression par crête pour traiter la multicolinéarité.
Couvre la régression polynôme, la descente en gradient, le surajustement, le sous-ajustement, la régularisation et la mise à l'échelle des caractéristiques dans les algorithmes d'optimisation.
Explore les méthodes du noyau dans l'apprentissage automatique, en mettant l'accent sur leur application dans les tâches de régression et la prévention du surajustement.
Explore les principes fondamentaux de la régression linéaire, en soulignant limportance des techniques de régularisation pour améliorer la performance du modèle.
Explore les modèles de signaux concis, la détection compressive, la parcimonie, les normes atomiques et la minimisation non lisse en utilisant la descente de sous-gradient.