Couvre les modèles de séquence à séquence, leur architecture, leurs applications et le rôle des mécanismes d'attention dans l'amélioration des performances.
Se concentre sur l'estimation de la pose articulaire de la balle et de la poche à l'aide d'un champ magnétique dans une conception anthropomorphe avec muscles artificiels et tendons.
Explore l'évaluation de la précision et de la robustesse de la machine et de l'homme sur ImageNet, en soulignant les progrès, les défis et la nécessité d'améliorer.
Introduit les réseaux de mémoire à long terme (LSTM) comme une solution pour la disparition et l'explosion des gradients dans les réseaux neuronaux récurrents.
Explore les réseaux neuronaux récurrents pour les données comportementales, couvrant le repérage de connaissances profondes, les réseaux LSTM, GRU, le réglage hyperparamétrique et les tâches de prévision de séries chronologiques.
Explore le mécanisme d'attention dans la traduction automatique, en s'attaquant au problème du goulot d'étranglement et en améliorant considérablement les performances NMT.
Explore le but et le processus de normalisation par lots dans les réseaux neuronaux profonds, en soulignant son importance dans la stabilisation de l'entrée moyenne et la résolution du problème du gradient de fuite.
Explore une approche de réseau neuronal à la tomographie d'état quantique utilisant RBM, présentant des prédictions précises et des applications potentielles au-delà de RBM.
Explore les réseaux neuronaux convolutifs, l'augmentation des données, la dégradation du poids et le décrochage pour améliorer les performances du modèle.
Plonge dans la propagation en arrière dans l'apprentissage profond, répondant au défi de la disparition du gradient et à la nécessité d'unités cachées efficaces.
Explore les réseaux neuronaux convolutifs pour la segmentation sémantique, discutant des modèles de classification des pixels, du décodage appris et de l'importance des connexions par saut.