Couvre l'architecture multiprocesseur avancée, discutant de la logistique des cours, des composants, du classement et des tendances des systèmes informatiques modernes.
Couvre les projets semestriels, la logistique des projets, les exemples de projets réussis, la rédaction de propositions et diverses options de projets liés aux systèmes, au threading, à la programmation sans serveur, à la mémoire virtuelle, à l'analyse comparative dans le cloud et aux accélérateurs d'IA.
Explore les mesures de performance, les implications de la loi d'Amdahl, l'évaluation des moyens, les défis dans les systèmes multiprocesseurs et les logiciels de serveur commercial.
Explore les bases du cache CMP, la mémoire transactionnelle, les transactions en vol, le mécanisme de débordement du cache et la réplication des victimes.
Couvre les bases de la programmation parallèle, y compris la concurrence, les formes de parallélisme, la synchronisation et les modèles de programmation tels que PThreads et OpenMP.
Couvre les systèmes de mémoire distribués, l'organisation du cache, les architectures multi-sockets, la cohérence de la mémoire et la conception d'interconnexions sur puce.
Introduit les bases de la cohérence du cache, couvrant l'organisation du cache, les protocoles de cohérence et les défis dans les hiérarchies de cache à plusieurs niveaux.
Explore les techniques avancées de cohérence du cache, en mettant l'accent sur les serveurs sensibles à la puissance et l'optimisation des protocoles de cohérence.
Explore la spécialisation matérielle, les avantages ASIC par rapport aux processeurs et les stratégies pour atteindre des efficacités de type ASIC dans la conception des puces.
Explore l'ordonnancement de la mémoire dans les systèmes multiprocesseurs, en discutant de la sémantique de chargement / stockage, de l'ordonnancement total et de différents modèles de cohérence.
Explore la cohérence spéculative de la mémoire, les défis, les solutions, les frais généraux de performance et l'impact de l'application dynamique de la clôture sur la réalisation de hautes performances.
Explore les charges de travail d'apprentissage automatique, les couches DNN, les tableaux systolique et l'efficacité des accélérateurs spécialisés tels que les TPU.
Couvre les techniques de synchronisation avancées, les opérations atomiques, les implémentations de verrous et la prise en charge matérielle des verrous de file d'attente.
Explore les stratégies d'optimisation pour les accélérateurs d'apprentissage en profondeur, en mettant l'accent sur la réduction des mouvements de données grâce au batching, à l'optimisation des flux de données et à la compression.
Explore les inefficacités du processeur serveur, les tendances d'intégration matérielle et les critères d'optimisation de la conception pour des serveurs efficaces.
Explore le paysage des données volumineuses, l'importance de la mémoire dans les services en ligne, les défis auxquels sont confrontés les systèmes de mémoire, les technologies DRAM émergentes et la mémoire de classe stockage.