Introduit les bases de la science des données, couvrant les arbres de décision, les progrès de l'apprentissage automatique et l'apprentissage par renforcement profond.
Introduit des outils collaboratifs de science des données comme Git et Docker, en mettant l'accent sur le travail d'équipe et les exercices pratiques pour un apprentissage efficace.
Explore la fiabilité dans l'automatisation industrielle, couvrant la fiabilité, la sécurité, les caractéristiques des pannes et des exemples de sources de défaillance dans diverses industries.
Offre une introduction complète à la science des données, couvrant Python, Numpy, Pandas, Matplotlib et Scikit-learn, en mettant l'accent sur les exercices pratiques et le travail collaboratif.
Explore l'importance de la reproductibilité dans la science des données et présente Renku, une plate-forme pour la gestion de projets axés sur les données.
Couvre les fondamentaux des écosystèmes de big data, en se concentrant sur les technologies, les défis et les exercices pratiques avec le HDFS d'Hadoop.
Se concentre sur les fonctions avancées de pandas pour la manipulation, l'exploration et la visualisation des données avec Python, en soulignant l'importance de la compréhension et de la préparation des données.
Se concentre sur le déploiement de certificats SSL pour l'hébergement Web ENAC, couvrant la génération de certificats, le débogage et la gestion de livres de lecture Ansible.
Explore les défis de sécurité informatique, les systèmes de stockage d'objets, la transition de gestion du site, le déploiement de la sécurité du réseau et la gestion de portefeuilles de projets à l'EPFL.
Explore l'hébergement sur l'infrastructure XaaS et les meilleures pratiques de déploiement continu à l'EPFL, en mettant l'accent sur la sécurité, la documentation et la collaboration.
Couvre les outils de science des données, Hadoop, Spark, les écosystèmes des lacs de données, le théorème CAP, le traitement par lots vs. flux, HDFS, Hive, Parquet, ORC, et l'architecture MapReduce.
Explore les signaux de débruitage avec des modèles de mélange gaussien et l'algorithme EM, l'analyse de signal EMG et la segmentation d'image à l'aide de modèles markoviens.
Présente des outils collaboratifs de science des données comme les carnets Jupyter, Docker et Git, mettant l'accent sur la version des données et la conteneurisation.