Dynamique moléculaireLa dynamique moléculaire est une technique de simulation numérique permettant de modéliser l'évolution d'un système de particules au cours du temps. Elle est particulièrement utilisée en sciences des matériaux et pour l'étude des molécules organiques, des protéines, de la matière molle et des macromolécules. En pratique, la dynamique moléculaire consiste à simuler le mouvement d'un ensemble de quelques dizaines à quelques milliers de particules dans un certain environnement (température, pression, champ électromagnétique, conditions aux limites.
Échantillonnage (statistiques)thumb|Exemple d'échantillonnage aléatoire En statistique, l'échantillonnage désigne les méthodes de sélection d'un sous-ensemble d'individus (un échantillon) à l'intérieur d'une population pour estimer les caractéristiques de l'ensemble de la population. Cette méthode présente plusieurs avantages : une étude restreinte sur une partie de la population, un moindre coût, une collecte des données plus rapide que si l'étude avait été réalisé sur l'ensemble de la population, la réalisation de contrôles destructifs Les résultats obtenus constituent un échantillon.
Modélisation moléculairethumb|Animation d'un modèle compact d'ADN en forme B|327x327px|alt=Modèle de l'ADN en forme B La modélisation moléculaire est un ensemble de techniques pour modéliser ou simuler le comportement de molécules. Elle est utilisée pour reconstruire la structure tridimensionnelle de molécules, en particulier en biologie structurale, à partir de données expérimentales comme la cristallographie aux rayons X. Elle permet aussi de simuler le comportement dynamique des molécules et leur mouvements internes.
Échantillonnage stratifiévignette|Vous prenez un échantillon aléatoire stratifié en divisant d'abord la population en groupes homogènes (semblables en eux-mêmes) (strates) qui sont distincts les uns des autres, c'est-à-dire. Le groupe 1 est différent du groupe 2. Ensuite, choisissez un EAS (échantillon aléatoire simple) distinct dans chaque strate et combinez ces EAS pour former l'échantillon complet. L'échantillonnage aléatoire stratifié est utilisé pour produire des échantillons non biaisés.
Convenience samplingConvenience sampling (also known as grab sampling, accidental sampling, or opportunity sampling) is a type of non-probability sampling that involves the sample being drawn from that part of the population that is close to hand. This type of sampling is most useful for pilot testing. Convenience sampling is not often recommended for research due to the possibility of sampling error and lack of representation of the population. But it can be handy depending on the situation. In some situations, convenience sampling is the only possible option.
Sampling errorIn statistics, sampling errors are incurred when the statistical characteristics of a population are estimated from a subset, or sample, of that population. It can produced biased results. Since the sample does not include all members of the population, statistics of the sample (often known as estimators), such as means and quartiles, generally differ from the statistics of the entire population (known as parameters). The difference between the sample statistic and population parameter is considered the sampling error.
Nonprobability samplingSampling is the use of a subset of the population to represent the whole population or to inform about (social) processes that are meaningful beyond the particular cases, individuals or sites studied. Probability sampling, or random sampling, is a sampling technique in which the probability of getting any particular sample may be calculated. In cases where external validity is not of critical importance to the study's goals or purpose, researchers might prefer to use nonprobability sampling.
Cluster samplingIn statistics, cluster sampling is a sampling plan used when mutually homogeneous yet internally heterogeneous groupings are evident in a statistical population. It is often used in marketing research. In this sampling plan, the total population is divided into these groups (known as clusters) and a simple random sample of the groups is selected. The elements in each cluster are then sampled. If all elements in each sampled cluster are sampled, then this is referred to as a "one-stage" cluster sampling plan.
Énergie libreEn thermodynamique, l'énergie libre, appelée aussi énergie libre de Helmholtz ou simplement énergie de Helmholtz, est une fonction d'état extensive dont la variation permet d'obtenir le travail utile susceptible d'être fourni par un système thermodynamique fermé, à température constante, au cours d'une transformation réversible. En français on la représente généralement par ; en anglais on l'appelle énergie libre de Helmholtz et on la représente généralement par .
Survey samplingIn statistics, survey sampling describes the process of selecting a sample of elements from a target population to conduct a survey. The term "survey" may refer to many different types or techniques of observation. In survey sampling it most often involves a questionnaire used to measure the characteristics and/or attitudes of people. Different ways of contacting members of a sample once they have been selected is the subject of survey data collection.
Entropie (thermodynamique)L'entropie est une grandeur physique qui caractérise le degré de désorganisation d'un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec , littéralement « action de se retourner » pris au sens de « action de se transformer ». En thermodynamique, l'entropie est une fonction d'état extensive (c'est-à-dire, proportionnelle à la quantité de matière dans le système considéré). Elle est généralement notée , et dans le Système international d'unités elle s'exprime en joules par kelvin ().
NéguentropieLa néguentropie est une « entropie négative », une variation générant une baisse du degré de désorganisation d'un système. Elle équivaut par conséquent à un facteur d'organisation des systèmes physiques, biologiques, écologiques et éventuellement sociaux et humains, qui s'oppose à la tendance naturelle à la désorganisation (entropie). Elle est une caractéristique essentielle des êtres vivants. Pour désigner la néguentropie, dans certains contextes, on emploie aussi parfois le nom de syntropie (nom proposé par Albert Szent-Györgyi).
Température négativeCertains systèmes quantiques liés à la résonance magnétique nucléaire dans les cristaux ou les gaz ultrafroids possèdent des distributions d'énergie particulières pouvant être entièrement peuplées dans l'état de plus basse énergie (zéro absolu) mais également dans l'état de plus haute énergie. L'expression habituelle donnant la température d'un système à volume constant : (avec la température absolue, l'énergie interne, l'entropie, le volume) conduit donc à une fonction non définie au maximum d'entropie et négative au-delà.
Molecular design softwareMolecular design software is notable software for molecular modeling, that provides special support for developing molecular models de novo. In contrast to the usual molecular modeling programs, such as for molecular dynamics and quantum chemistry, such software directly supports the aspects related to constructing molecular models, including: Molecular graphics interactive molecular drawing and conformational editing building polymeric molecules, crystals, and solvated systems partial charges development g
Coordinate timeIn the theory of relativity, it is convenient to express results in terms of a spacetime coordinate system relative to an implied observer. In many (but not all) coordinate systems, an event is specified by one time coordinate and three spatial coordinates. The time specified by the time coordinate is referred to as coordinate time to distinguish it from proper time.
Entropy (classical thermodynamics)In classical thermodynamics, entropy () is a property of a thermodynamic system that expresses the direction or outcome of spontaneous changes in the system. The term was introduced by Rudolf Clausius in the mid-19th century to explain the relationship of the internal energy that is available or unavailable for transformations in form of heat and work. Entropy predicts that certain processes are irreversible or impossible, despite not violating the conservation of energy.
Parallélisme (géométrie)En géométrie affine, le parallélisme est une propriété relative aux droites, aux plans ou plus généralement aux sous-espaces affines. La notion de parallélisme a été initialement formulée par Euclide dans ses Éléments, mais sa présentation a évolué dans le temps, passant d'une définition axiomatique à une simple définition. La notion de parallélisme est introduite dans le Livre I des Éléments d'Euclide. Pour Euclide, une droite s'apparente plutôt à un segment.
Densité surfacique d'énergieLa densité surfacique d'énergie ou énergie surfacique, voire densité énergétique (quand le contexte surfacique est clair), est la quantité d’énergie par une unité de surface. Dans le Système international elle se mesure en J/m (joules par mètre carré). Dans un contexte industriel on l'exprime souvent en kWh/m (kilowatts-heures par mètre carré). Cette grandeur physique est principalement utilisée dans l'étude physique des interfaces entre liquides non miscibles, ou entre liquide et gaz, où elle caractérise l'énergie nécessaire à former une interface d'une certaine surface.
Champ de force (chimie)vignette|Un champ de force peut par exemple être utilisé afin de minimiser l'énergie d'étirement de cette molécule d'éthane. Dans le cadre de la mécanique moléculaire, un champ de force est un ensemble de potentiels et de paramètres permettant de décrire la structure de l'énergie potentielle d'un système de particules (typiquement, des atomes, mais non exclusivement). L'usage de l'expression champ de force en chimie et biologie numériques diffère ainsi de celui de la physique, où il indique en général un gradient négatif d'un potentiel scalaire.
Entropie différentielleDifferential entropy (also referred to as continuous entropy) is a concept in information theory that began as an attempt by Claude Shannon to extend the idea of (Shannon) entropy, a measure of average (surprisal) of a random variable, to continuous probability distributions. Unfortunately, Shannon did not derive this formula, and rather just assumed it was the correct continuous analogue of discrete entropy, but it is not. The actual continuous version of discrete entropy is the limiting density of discrete points (LDDP).