Introduit les fondamentaux de l'architecture multiprocesseur, couvrant les serveurs post-Moore, les datacenters durables, la programmation parallèle et l'utilisation du GPU.
Couvre la cohérence des caches dans les systèmes multiprocesseurs et les défis du maintien de la cohérence et de la cohérence dans les processeurs modernes.
Défis liés à la prise de décisions en temps réel dans les systèmes à forte intensité de données, y compris la désinfectation des données par requête, l'optimisation du matériel et l'accès aux données GPU.
Couvre les caches en format direct et annexe dans l'architecture informatique, expliquant la structure du cache, les modèles d'accès, les taux de succès et les calculs de latence.
Couvre les principes de la synchronisation dans le calcul parallèle, en mettant l'accent sur la synchronisation de la mémoire partagée et différentes méthodes comme les verrous et les barrières.
Releve les défis de la synthèse de haut niveau et de l'optimisation des constructions de boucles en utilisant le modèle polyédrique pour améliorer les performances et la planification.
Couvre les bases de la concurrence, se concentrant sur les threads et la synchronisation, y compris l'assemblage des threads et les défis de l'exécution non déterministe.
Couvre le passage aux processeurs multicœurs, à l'architecture de mémoire de processeur, aux défis de concurrence et aux problèmes de synchronisation dans l'informatique moderne.
Couvre les bases de la programmation parallèle, y compris la concurrence, les formes de parallélisme, la synchronisation et les modèles de programmation tels que PThreads et OpenMP.
Explore les principes de cache mémoire, en mettant l'accent sur la localisation spatiale, l'impact de la latence et les stratégies d'efficacité du cache.