Construction parasismiquethumb| La Tokyo Skytree, la deuxième plus grande tour au monde (derrière le Burj Khalifa) qui, du haut de ses , a parfaitement résisté au séisme de 2011 de magnitude 9, démontrant l'efficacité des constructions parasismiques japonaises. La construction parasismique ou construction antisismique est la réalisation de bâtiments et infrastructures résistant aux séismes. Elle implique l'étude du comportement des bâtiments et structures sujets à un chargement dynamique de type sismique.
Prédiction sismiqueL'objectif de la prédiction sismique est d'anticiper les risques sismiques en prévoyant l'amplitude, le lieu et la date des tremblements de terre. On peut distinguer trois types de prévision sismique : la prévision à long terme (sur plusieurs années), à moyen terme (sur plusieurs mois) et à court terme (inférieur à quelques jours). La prédiction sismique reste une tâche difficile et aléatoire, voire quasi impossible malgré les efforts scientifiques. De plus prévoir les dégâts ne les empêcherait pas d'avoir lieu.
Séismevignette|upright=1.5|Carte de la répartition mondiale des séismes en 2010, montrant leur distribution essentiellement le long des frontières des grandes plaques tectoniques (dorsales dans les océans, ceinture de feu du Pacifique et ceinture alpine sur les continents). Un séisme ou tremblement de terre est une secousse du sol résultant de la libération brusque d'énergie accumulée par les contraintes exercées sur les roches. Cette libération d'énergie se fait par rupture le long d'une faille, généralement préexistante.
DonnéeUne donnée est ce qui est connu et qui sert de point de départ à un raisonnement ayant pour objet la détermination d'une solution à un problème en relation avec cette donnée. Cela peut être une description élémentaire qui vise à objectiver une réalité, le résultat d'une comparaison entre deux événements du même ordre (mesure) soit en d'autres termes une observation ou une mesure. La donnée brute est dépourvue de tout raisonnement, supposition, constatation, probabilité.
RéfutabilitéLa réfutabilité (également désignée par le recours à l'anglicisme falsifiabilité) a été introduite par Karl Popper et est considérée comme un concept important de l'épistémologie, permettant d'établir une démarcation entre les théories scientifiques et celles qui ne le sont pas. Une affirmation, une hypothèse, est dite réfutable si et seulement si elle peut être logiquement contredite par un test empirique ou, plus précisément, si et seulement si un énoncé d'observation (vrai ou faux) ayant une interprétation empirique (respectant ou non les lois actuelles et à venir) contredit logiquement la théorie.
Modèle de donnéesEn informatique, un modèle de données est un modèle qui décrit la manière dont sont représentées les données dans une organisation métier, un système d'information ou une base de données. Le terme modèle de données peut avoir deux significations : Un modèle de données théorique, c'est-à-dire une description formelle ou un modèle mathématique. Voir aussi modèle de base de données Un modèle de données instance, c'est-à-dire qui applique un modèle de données théorique (modélisation des données) pour créer un modèle de données instance.
Prédiction dynamiqueLa prédiction dynamique est une méthode inventée par Newton et Leibniz. Newton l’a appliquée avec succès au mouvement des planètes et de leurs satellites. Depuis elle est devenue la grande méthode de prédiction des mathématiques appliquées. Sa portée est universelle. Tout ce qui est matériel, tout ce qui est en mouvement, peut être étudié avec les outils de la théorie des systèmes dynamiques. Mais il ne faut pas en conclure que pour connaître un système il est nécessaire de connaître sa dynamique.
Séisme lentUn séisme lent (SSE, pour slow slip event) appelé aussi séisme silencieux, est un déplacement discontinu semblable à celui d'un séisme, mais qui libère l'énergie élastique en plusieurs heures ou plusieurs jours au lieu de quelques minutes comme un séisme ordinaire. Les séismes lents ont d'abord été détectés par la mesure des déplacements et déformations. Aujourd'hui l'on sait qu'ils sont généralement accompagnés d'écoulements fluides et du trémor associé, que l'on peut détecter et localiser par filtrage des données sismométriques (dans la bande , typiquement).
Gestion des donnéesLa gestion des données est une discipline de gestion qui tend à valoriser les données en tant que ressources numériques. La gestion des données permet d'envisager le développement d'architectures, de réglementations, de pratiques et de procédures qui gèrent correctement les besoins des organismes sur le plan de tout le cycle de vie des données. Les données sont, avec les traitements, l'un des deux aspects des systèmes d'information traditionnellement identifiés, et l'un ne peut aller sans l'autre pour un management du système d'information cohérent.
Seismic retrofitSeismic retrofitting is the modification of existing structures to make them more resistant to seismic activity, ground motion, or soil failure due to earthquakes. With better understanding of seismic demand on structures and with our recent experiences with large earthquakes near urban centers, the need of seismic retrofitting is well acknowledged. Prior to the introduction of modern seismic codes in the late 1960s for developed countries (US, Japan etc.) and late 1970s for many other parts of the world (Turkey, China etc.
Uncertainty quantificationUncertainty quantification (UQ) is the science of quantitative characterization and estimation of uncertainties in both computational and real world applications. It tries to determine how likely certain outcomes are if some aspects of the system are not exactly known. An example would be to predict the acceleration of a human body in a head-on crash with another car: even if the speed was exactly known, small differences in the manufacturing of individual cars, how tightly every bolt has been tightened, etc.
UncertaintyUncertainty refers to epistemic situations involving imperfect or unknown information. It applies to predictions of future events, to physical measurements that are already made, or to the unknown. Uncertainty arises in partially observable or stochastic environments, as well as due to ignorance, indolence, or both. It arises in any number of fields, including insurance, philosophy, physics, statistics, economics, finance, medicine, psychology, sociology, engineering, metrology, meteorology, ecology and information science.
Seismic intensity scalesSeismic intensity scales categorize the intensity or severity of ground shaking (quaking) at a given location, such as resulting from an earthquake. They are distinguished from seismic magnitude scales, which measure the magnitude or overall strength of an earthquake, which may, or perhaps may not, cause perceptible shaking. Intensity scales are based on the observed effects of the shaking, such as the degree to which people or animals were alarmed, and the extent and severity of damage to different kinds of structures or natural features.
Risque sismiquethumb|upright=1.2|Cet immeuble s'est cassé et effondré parce qu'il était construit sur des sédiments insuffisamment compacts susceptibles de subir des phénomènes différenciés de liquéfaction lors de certains séismes, à une certaine fréquence et intensité de tremblement du sol (ici séisme de 2010 au Chili). Dans ce cas, le lieu et le bâtiment étaient vulnérables. Le risque sismique désigne la combinaison entre l'aléa sismique, les biens et les populations qui y sont soumises, et leur vulnérabilité face à cet aléa.
Magnitude (sismologie)vignette|Sismogramme enregistré par un sismographe à l'Observatoire Weston dans le Massachusetts, aux États-Unis. En sismologie, la magnitude est la représentation logarithmique du moment sismique, qui est lui-même une mesure de l'énergie libérée par un séisme déduite de l'amplitude de certaines ondes sismiques à des distances spécifiques (mesure de l'amplitude sur un sismogramme de l'onde P ou S). Plus le séisme a libéré d'énergie, plus la magnitude est élevée : un accroissement de magnitude de 1 correspond à une multiplication par 30 de l'énergie et par 10 de l'amplitude du mouvement.
Science des donnéesLa science des données est l'étude de l’extraction automatisée de connaissance à partir de grands ensembles de données. Plus précisément, la science des données est un domaine interdisciplinaire qui utilise des méthodes, des processus, des algorithmes et des systèmes scientifiques pour extraire des connaissances et des idées à partir de nombreuses données structurées ou non . Elle est souvent associée aux données massives et à l'analyse des données.
Théorie des ensemblesLa théorie des ensembles est une branche des mathématiques, créée par le mathématicien allemand Georg Cantor à la fin du . La théorie des ensembles se donne comme primitives les notions d'ensemble et d'appartenance, à partir desquelles elle reconstruit les objets usuels des mathématiques : fonctions, relations, entiers naturels, relatifs, rationnels, nombres réels, complexes... C'est pourquoi la théorie des ensembles est considérée comme une théorie fondamentale dont Hilbert a pu dire qu'elle était un « paradis » créé par Cantor pour les mathématiciens.
Analyse des donnéesL’analyse des données (aussi appelée analyse exploratoire des données ou AED) est une famille de méthodes statistiques dont les principales caractéristiques sont d'être multidimensionnelles et descriptives. Dans l'acception française, la terminologie « analyse des données » désigne donc un sous-ensemble de ce qui est appelé plus généralement la statistique multivariée. Certaines méthodes, pour la plupart géométriques, aident à faire ressortir les relations pouvant exister entre les différentes données et à en tirer une information statistique qui permet de décrire de façon plus succincte les principales informations contenues dans ces données.
Big dataLe big data ( « grosses données » en anglais), les mégadonnées ou les données massives, désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologies et de méthodes analytiques particulières pour créer de la valeur, et qui dépassent en général les capacités d'une seule et unique machine et nécessitent des traitements parallélisés. L’explosion quantitative (et souvent redondante) des données numériques permet une nouvelle approche pour analyser le monde.
Ensemblevignette|Ensemble de polygones dans un diagramme d'Euler En mathématiques, un ensemble désigne intuitivement un rassemblement d’objets distincts (les éléments de l'ensemble), « une multitude qui peut être comprise comme une totalité » pour paraphraser Georg Cantor qui est à l'origine de la théorie des ensembles. Dans une approche axiomatique, la théorie des ensembles est une théorie de l'appartenance (un élément d'un ensemble est dit « appartenir » à cet ensemble).