Construction parasismiquethumb| La Tokyo Skytree, la deuxième plus grande tour au monde (derrière le Burj Khalifa) qui, du haut de ses , a parfaitement résisté au séisme de 2011 de magnitude 9, démontrant l'efficacité des constructions parasismiques japonaises. La construction parasismique ou construction antisismique est la réalisation de bâtiments et infrastructures résistant aux séismes. Elle implique l'étude du comportement des bâtiments et structures sujets à un chargement dynamique de type sismique.
Seismic retrofitSeismic retrofitting is the modification of existing structures to make them more resistant to seismic activity, ground motion, or soil failure due to earthquakes. With better understanding of seismic demand on structures and with our recent experiences with large earthquakes near urban centers, the need of seismic retrofitting is well acknowledged. Prior to the introduction of modern seismic codes in the late 1960s for developed countries (US, Japan etc.) and late 1970s for many other parts of the world (Turkey, China etc.
RisqueLe risque est la possibilité de survenue d'un événement indésirable, la probabilité d’occurrence d'un péril probable ou d'un aléa. Le risque est une notion complexe, de définitions multiples car d'usage multidisciplinaire. Néanmoins, il est un concept très usité depuis le , par exemple sous la forme de l'expression , notamment pour qualifier, dans le sens commun, un événement, un inconvénient qu'il est raisonnable de prévenir ou de redouter l'éventualité.
Seismic analysisSeismic analysis is a subset of structural analysis and is the calculation of the response of a building (or nonbuilding) structure to earthquakes. It is part of the process of structural design, earthquake engineering or structural assessment and retrofit (see structural engineering) in regions where earthquakes are prevalent. As seen in the figure, a building has the potential to 'wave' back and forth during an earthquake (or even a severe wind storm). This is called the 'fundamental mode', and is the lowest frequency of building response.
Risque sismiquethumb|upright=1.2|Cet immeuble s'est cassé et effondré parce qu'il était construit sur des sédiments insuffisamment compacts susceptibles de subir des phénomènes différenciés de liquéfaction lors de certains séismes, à une certaine fréquence et intensité de tremblement du sol (ici séisme de 2010 au Chili). Dans ce cas, le lieu et le bâtiment étaient vulnérables. Le risque sismique désigne la combinaison entre l'aléa sismique, les biens et les populations qui y sont soumises, et leur vulnérabilité face à cet aléa.
Exploration de donnéesL’exploration de données, connue aussi sous l'expression de fouille de données, forage de données, prospection de données, data mining, ou encore extraction de connaissances à partir de données, a pour objet l’extraction d'un savoir ou d'une connaissance à partir de grandes quantités de données, par des méthodes automatiques ou semi-automatiques.
Jeux d'entrainement, de validation et de testEn apprentissage automatique, une tâche courante est l'étude et la construction d'algorithmes qui peuvent apprendre et faire des prédictions sur les données. De tels algorithmes fonctionnent en faisant des prédictions ou des décisions basées sur les données, en construisant un modèle mathématique à partir des données d'entrée. Ces données d'entrée utilisées pour construire le modèle sont généralement divisées en plusieurs jeux de données .
Séismevignette|upright=1.5|Carte de la répartition mondiale des séismes en 2010, montrant leur distribution essentiellement le long des frontières des grandes plaques tectoniques (dorsales dans les océans, ceinture de feu du Pacifique et ceinture alpine sur les continents). Un séisme ou tremblement de terre est une secousse du sol résultant de la libération brusque d'énergie accumulée par les contraintes exercées sur les roches. Cette libération d'énergie se fait par rupture le long d'une faille, généralement préexistante.
Big dataLe big data ( « grosses données » en anglais), les mégadonnées ou les données massives, désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologies et de méthodes analytiques particulières pour créer de la valeur, et qui dépassent en général les capacités d'une seule et unique machine et nécessitent des traitements parallélisés. L’explosion quantitative (et souvent redondante) des données numériques permet une nouvelle approche pour analyser le monde.
Space mappingThe space mapping methodology for modeling and design optimization of engineering systems was first discovered by John Bandler in 1993. It uses relevant existing knowledge to speed up model generation and design optimization of a system. The knowledge is updated with new validation information from the system when available. The space mapping methodology employs a "quasi-global" formulation that intelligently links companion "coarse" (ideal or low-fidelity) and "fine" (practical or high-fidelity) models of different complexities.
Strong ground motionIn seismology, strong ground motion is the strong earthquake shaking that occurs close to (less than about 50 km from) a causative fault. The strength of the shaking involved in strong ground motion usually overwhelms a seismometer, forcing the use of accelerographs (or strong ground motion accelerometers) for recording. The science of strong ground motion also deals with the variations of fault rupture, both in total displacement, energy released, and rupture velocity.
Évaluation des risquesDans le domaine de la gestion des risques, l'évaluation des risques est l'ensemble des méthodes consistant à calculer la criticité (pertinence et gravité) des dangers. Elle vise outre à les quantifier, à qualifier les dangers (qui doivent donc préalablement avoir été identifiés). Elle se base sur . Dans ce domaine, on se restreint à l'étude du risque aryétique, c'est-à-dire en ne considérant que les événements à conséquences négatives.
Gestion des risquesLa gestion des risques, ou l'anglicisme, management du risque (de l'risk management), est la discipline visant à identifier, évaluer et hiérarchiser les risques liés aux activités d'une organisation, quelles que soient la nature ou l'origine de ces risques, puis à les traiter méthodiquement, de manière coordonnée et économique, afin de réduire et contrôler la probabilité des événements redoutés, et leur impact éventuel.
Analyse des donnéesL’analyse des données (aussi appelée analyse exploratoire des données ou AED) est une famille de méthodes statistiques dont les principales caractéristiques sont d'être multidimensionnelles et descriptives. Dans l'acception française, la terminologie « analyse des données » désigne donc un sous-ensemble de ce qui est appelé plus généralement la statistique multivariée. Certaines méthodes, pour la plupart géométriques, aident à faire ressortir les relations pouvant exister entre les différentes données et à en tirer une information statistique qui permet de décrire de façon plus succincte les principales informations contenues dans ces données.
Risque financierUn risque financier est un risque de perdre de l'argent à la suite d'une opération financière (sur un actif financier) ou à une opération économique ayant une incidence financière (par exemple une vente à crédit ou en devises étrangères). Le risque de marché est le risque de perte qui peut résulter des fluctuations des prix des instruments financiers qui composent un portefeuille. Le risque de contrepartie est le risque que la partie avec laquelle un contrat a été conclu ne tienne pas ses engagements (livraison, paiement, remboursement, etc.
Test ZEn statistique, un test Z est un terme générique désignant tout test statistique dans lequel la statistique de test suit une loi normale sous l'hypothèse nulle. On considère un n-échantillon avec et un risque . Si l'on teste La statistique de test sous l'hypothèse nulle est : qui suit une loi normale Si , la réalisation de la statistique de test, est supérieur au quantile d'ordre de la loi alors on rejette l'hypothèse nulle. Si l'on teste Si est supérieur au quantile d'ordre de la loi alors on rejette l'hypothèse nulle.
Aléa sismiquevignette|Ceinture de feu du Pacifique L'aléa sismique est la probabilité qu'un séisme destructeur de caractéristiques données (exprimées en général par des paramètres tels que l’accélération, la période de récurrence, l’intensité, le spectre de réponse...) se produise dans une région donnée pendant une période donnée. Il ne doit pas être confondu avec le risque sismique qui est la probabilité qu'un séisme engendre des destructions et fasse des victimes. Ce risque est une combinaison de .
Earthquake-resistant structuresEarthquake-resistant or aseismic structures are designed to protect buildings to some or greater extent from earthquakes. While no structure can be entirely impervious to earthquake damage, the goal of earthquake engineering is to erect structures that fare better during seismic activity than their conventional counterparts. According to building codes, earthquake-resistant structures are intended to withstand the largest earthquake of a certain probability that is likely to occur at their location.
Apprentissage automatiqueL'apprentissage automatique (en anglais : machine learning, « apprentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et l'implémentation de telles méthodes.
MétamodèleDans le cadre d'une modélisation, un métamodèle est un modèle dont les instances sont elles-mêmes des modèles. Comme l'indique le préfixe méta-, un métamodèle est une abstraction permettant de décrire des modèles. La métamodélisation désigne au sens large la conception de métamodèles. Les métamodèles peuvent prendre diverses formes et être utilisés dans divers domaines. En informatique, et plus particulièrement en génie logiciel, la notion de métamodèle est centrale à l'ingénierie dirigée par les modèles, un ensemble de pratiques qui ont en commun la création et l'utilisation de modèles pour conceptualiser un domaine d'application.