Explore le parallélisme dans la programmation, en mettant l'accent sur les compromis entre la programmabilité et la performance, et introduit la programmation parallèle en mémoire partagée à l'aide d'OpenMP.
Couvre les techniques de prédiction et de spéculation dans la conception du processeur pour améliorer les performances et réduire les retards d'exécution.
Explore l'architecture des GPU, la programmation CUDA, le traitement d'image et leur importance dans l'informatique moderne, en mettant l'accent sur le démarrage précoce et l'exactitude de la programmation GPU.
Couvre la planification dynamique dans les processeurs, en se concentrant sur l'exécution dans le désordre et la gestion efficace des dépendances d'instructions.
Fournit une vue d'ensemble de l'architecture informatique, en se concentrant sur l'architecture de von Neumann et ses composants, y compris les unités de gestion du processeur et de la mémoire.
Explore l'évaluation des performances de la mémoire cache, couvrant les points de repère, la loi d'Amdahl, les performances du processeur, la hiérarchie de la mémoire, les optimisations de cache et les caches multiniveaux.
Couvre les caches en format direct et annexe dans l'architecture informatique, expliquant la structure du cache, les modèles d'accès, les taux de succès et les calculs de latence.
Explore la conception de mémoire cache, les succès, les ratés et les politiques d'expulsion dans les systèmes informatiques, en mettant l'accent sur la localité spatiale et temporelle.
Couvre la pipelining dans l'architecture informatique, en mettant l'accent sur son rôle dans l'amélioration des performances grâce à un parallélisme au niveau de l'instruction et en abordant les défis associés.
Couvre l'architecture multiprocesseurs, l'informatique durable, l'impact de la formation sur les modèles d'IA et les principes fondamentaux de la programmation parallèle.