Couvre les outils de science des données, Hadoop, Spark, les écosystèmes des lacs de données, le théorème CAP, le traitement par lots vs. flux, HDFS, Hive, Parquet, ORC, et l'architecture MapReduce.
Couvre les fondamentaux des systèmes de fichiers, se concentrant sur la gestion efficace des blocs persistants et la mise en œuvre des API système de fichiers.
Couvre les techniques de manipulation des données à l'aide de Hadoop, en se concentrant sur les bases de données axées sur les lignes et les colonnes, les formats de stockage populaires et l'intégration HBase-Hive.
Introduit les bases de la science des données, couvrant les arbres de décision, les progrès de l'apprentissage automatique et l'apprentissage par renforcement profond.
Explore le contrôle d'accès sous Linux et Windows, couvrant les identités des utilisateurs Unix, les listes de contrôle d'accès aux fichiers, les utilisateurs spéciaux, les super utilisateurs et les listes de contrôle d'accès discrétionnaires de Windows.
Couvre les meilleures pratiques et les lignes directrices pour les mégadonnées, y compris les lacs de données, l'architecture, les défis et les technologies comme Hadoop et Hive.
Explore l'indexation dans les systèmes de base de données, couvrant le stockage, les fichiers, et des techniques efficaces de récupération de données utilisant différents types d'index.
Couvre la mise en place de réunions Zoom, la gestion d'instances sur AWS, la création de billets de blog, la gestion d'utilisateurs et de groupes, et l'utilisation de fonctions de recherche avancée.