Explore les moniteurs comme une construction de synchronisation fournissant l'exclusion mutuelle et la coopération entre les threads, avec des exemples comme le tampon d'un seul endroit.
Couvre les bases de la programmation parallèle, y compris l'exploitation du parallélisme dans les algorithmes et l'importance d'éviter les conditions de race.
Couvre les bases de la concurrence, se concentrant sur les threads et la synchronisation, y compris l'assemblage des threads et les défis de l'exécution non déterministe.
Couvre l'abstraction des threads dans les systèmes informatiques, en se concentrant sur la concurrence, le parallélisme et la gestion des threads à l'aide de l'API POSIX.
Couvre les bases des opérations atomiques dans la proximité et le parallélisme, y compris les opérations fournies par le matériel et les algorithmes synchronisés.
Explore la sécurité des fils, la synchronisation et les collections simultanées dans Scala, en mettant l'accent sur une implémentation de file d'attente simultanée sans verrou.
Explique le modèle de cohérence séquentiel dans la concordance et le parallélisme, couvrant l'ordre des programmes, l'atomicité et les implications de performance.
Explore la cohérence de la mémoire, la faible cohérence et les garanties de niveau de langue dans l'ordre de mémoire, soulignant l'importance de la programmation libre de course de données.
Explore l'importance de la synchronisation sans verrouillage pour obtenir une faible latence dans les systèmes distribués et discute des solutions pratiques pour la génération d'identificateurs uniques et les files d'attente de messagerie.
Couvre les bases de la programmation parallèle, y compris la concurrence, les formes de parallélisme, la synchronisation et les modèles de programmation tels que PThreads et OpenMP.
Explore les mécanismes de synchronisation évolutive pour de nombreux systèmes d'exploitation de base, en mettant l'accent sur les défis de la gestion de la croissance des données et des régressions dans le système d'exploitation.