Couvre les principes de la synchronisation dans le calcul parallèle, en mettant l'accent sur la synchronisation de la mémoire partagée et différentes méthodes comme les verrous et les barrières.
Couvre la mise en œuvre d'un processeur avec transistors et met l'accent sur l'amélioration des performances grâce à diverses technologies et conceptions de circuits.
Explore les principes de synchronisation à l'aide de verrous et de barrières, en mettant l'accent sur des implémentations matérielles efficaces et des mécanismes de coordination tels qu'OpenMP.
Explore simulant des modèles de réseau neuronal à grande échelle et optimisant l'efficacité de la mémoire dans les simulations neuronales à l'aide de NEURON et de CoreNEURON.
Explore l'évolution du matériel parallèle, de la loi de Moore aux défis des années 2000, et le passage à des systèmes d'extension dans les centres de données.
Explore les perspectives historiques et les mécanismes de la mémoire transactionnelle, en soulignant l'importance et les défis de sa mise en œuvre dans les systèmes informatiques modernes.