Iterative reconstructionIterative reconstruction refers to iterative algorithms used to reconstruct 2D and 3D images in certain imaging techniques. For example, in computed tomography an image must be reconstructed from projections of an object. Here, iterative reconstruction techniques are usually a better, but computationally more expensive alternative to the common filtered back projection (FBP) method, which directly calculates the image in a single reconstruction step.
Tokamakthumb|Vue intérieure du tore du Tokamak à configuration variable (TCV), dont les parois sont recouvertes de tuiles de graphite. Un tokamak est un dispositif de confinement magnétique expérimental explorant la physique des plasmas et les possibilités de produire de l'énergie par fusion nucléaire. Il existe deux types de tokamaks aux caractéristiques sensiblement différentes, les tokamaks traditionnels toriques (objet de cet article) et les tokamaks sphériques.
Fusion par confinement magnétiqueLa fusion par confinement magnétique (FCM) est une méthode de confinement utilisée pour porter une quantité de combustible aux conditions de température et de pression désirées pour la fusion nucléaire. De puissants champs électromagnétiques sont employés pour atteindre ces conditions. Le combustible doit au préalable être converti en plasma, celui-ci se laisse ensuite influencer par les champs magnétiques. Il s'agit de la méthode utilisée dans les tokamaks toriques et sphériques, les stellarators et les machines à piège à miroirs magnétiques.
Edge-localized modeAn edge-localized mode (ELM) is a plasma instability occurring in the edge region of a tokamak plasma due to periodic relaxations of the edge transport barrier in high-confinement mode. Each ELM burst is associated with expulsion of particles and energy from the confined plasma into the scrape-off layer. This phenomenon was first observed in the ASDEX tokamak in 1981. Diamagnetic effects in the model equations expand the size of the parameter space in which solutions of repeated sawteeth can be recovered compared to a resistive MHD model.
Tomographic reconstructionTomographic reconstruction is a type of multidimensional inverse problem where the challenge is to yield an estimate of a specific system from a finite number of projections. The mathematical basis for tomographic imaging was laid down by Johann Radon. A notable example of applications is the reconstruction of computed tomography (CT) where cross-sectional images of patients are obtained in non-invasive manner.
Plasma-facing materialIn nuclear fusion power research, the plasma-facing material (or materials) (PFM) is any material used to construct the plasma-facing components (PFC), those components exposed to the plasma within which nuclear fusion occurs, and particularly the material used for the lining the first wall or divertor region of the reactor vessel. Plasma-facing materials for fusion reactor designs must support the overall steps for energy generation, these include: Generating heat through fusion, Capturing heat in the first wall, Transferring heat at a faster rate than capturing heat.
Intervalle de confiancevignette|Chaque ligne montre 20 échantillons tirés selon la loi normale de moyenne μ. On y montre l'intervalle de confiance de niveau 50% pour la moyenne correspondante aux 20 échantillons, marquée par un losange. Si l'intervalle contient μ, il est bleu ; sinon il est rouge. En mathématiques, plus précisément en théorie des probabilités et en statistiques, un intervalle de confiance encadre une valeur réelle que l’on cherche à estimer à l’aide de mesures prises par un procédé aléatoire.
Maximum de vraisemblanceEn statistique, l'estimateur du maximum de vraisemblance est un estimateur statistique utilisé pour inférer les paramètres de la loi de probabilité d'un échantillon donné en recherchant les valeurs des paramètres maximisant la fonction de vraisemblance. Cette méthode a été développée par le statisticien Ronald Aylmer Fisher en 1922. Soient neuf tirages aléatoires x1, ..., x9 suivant une même loi ; les valeurs tirées sont représentées sur les diagrammes ci-dessous par des traits verticaux pointillés.
Pinch (plasma physics)A pinch (or: Bennett pinch (after Willard Harrison Bennett), electromagnetic pinch, magnetic pinch, pinch effect, or plasma pinch.) is the compression of an electrically conducting filament by magnetic forces, or a device that does such. The conductor is usually a plasma, but could also be a solid or liquid metal. Pinches were the first type of device used for experiments in controlled nuclear fusion power. Pinches occur naturally in electrical discharges such as lightning bolts, planetary auroras, current sheets, and solar flares.
Interval estimationIn statistics, interval estimation is the use of sample data to estimate an interval of possible values of a parameter of interest. This is in contrast to point estimation, which gives a single value. The most prevalent forms of interval estimation are confidence intervals (a frequentist method) and credible intervals (a Bayesian method); less common forms include likelihood intervals and fiducial intervals.
Intervalle de fluctuationEn mathématiques, un intervalle de fluctuation, aussi appelé intervalle de pari, permet de détecter un écart important par rapport à la valeur théorique pour une grandeur établie sur un échantillon. C'est un intervalle dans lequel la grandeur observée est censée se trouver avec une forte probabilité (souvent de l'ordre de 95 %). Le fait d'obtenir une valeur en dehors de cet intervalle s'interprète alors en mettant en cause la représentativité de l'échantillon ou la valeur théorique.
Confidence distributionIn statistical inference, the concept of a confidence distribution (CD) has often been loosely referred to as a distribution function on the parameter space that can represent confidence intervals of all levels for a parameter of interest. Historically, it has typically been constructed by inverting the upper limits of lower sided confidence intervals of all levels, and it was also commonly associated with a fiducial interpretation (fiducial distribution), although it is a purely frequentist concept.
Méthode d'EulerEn mathématiques, la méthode d'Euler, nommée ainsi en l'honneur du mathématicien Leonhard Euler (1707 — 1783), est une procédure numérique pour résoudre par approximation des équations différentielles du premier ordre avec une condition initiale. C'est la plus simple des méthodes de résolution numérique des équations différentielles. thumb|Illustration de la méthode d'Euler explicite : l'avancée se fait par approximation sur la tangente au point initial.
Tolerance intervalA tolerance interval (TI) is a statistical interval within which, with some confidence level, a specified sampled proportion of a population falls. "More specifically, a 100×p%/100×(1−α) tolerance interval provides limits within which at least a certain proportion (p) of the population falls with a given level of confidence (1−α)." "A (p, 1−α) tolerance interval (TI) based on a sample is constructed so that it would include at least a proportion p of the sampled population with confidence 1−α; such a TI is usually referred to as p-content − (1−α) coverage TI.
Apprentissage automatiqueL'apprentissage automatique (en anglais : machine learning, « apprentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et l'implémentation de telles méthodes.
Tokamak sphériquethumb|Intérieur d'un tokamak sphérique. Un tokamak sphérique est un dispositif de confinement magnétique de plasma de type tokamak permettant d'obtenir des réactions de fusions de nucléons. Un tokamak sphérique a un solénoïde central beaucoup plus fin qu'un tokamak classique. Une telle installation serait susceptible d'être utilisée pour produire de l'électricité.
Coverage probabilityIn statistics, the coverage probability, or coverage for short, is the probability that a confidence interval or confidence region will include the true value (parameter) of interest. It can be defined as the proportion of instances where the interval surrounds the true value as assessed by long-run frequency. The fixed degree of certainty pre-specified by the analyst, referred to as the confidence level or confidence coefficient of the constructed interval, is effectively the nominal coverage probability of the procedure for constructing confidence intervals.
Rayonnement thermiqueLe rayonnement thermique est un rayonnement électromagnétique généré par l'agitation thermique de particules dans la matière quel que soit l'état de celle-ci : solide, liquide ou gaz. Le spectre de ce rayonnement s'étend du domaine micro-ondes à l'ultra-violet. L'expression est également utilisée pour des phénomènes beaucoup plus énergétiques tels que rencontrés dans les plasmas, qui sont la source de rayonnement X. Ce phénomène conduit au rayonnement du corps noir lorsque l'interaction matière - rayonnement est réversible et importante.
Méthode itérativeEn analyse numérique, une méthode itérative est un procédé algorithmique utilisé pour résoudre un problème, par exemple la recherche d’une solution d’un système d'équations ou d’un problème d’optimisation. En débutant par le choix d’un point initial considéré comme une première ébauche de solution, la méthode procède par itérations au cours desquelles elle détermine une succession de solutions approximatives raffinées qui se rapprochent graduellement de la solution cherchée. Les points générés sont appelés des itérés.
Fiducial inferenceFiducial inference is one of a number of different types of statistical inference. These are rules, intended for general application, by which conclusions can be drawn from samples of data. In modern statistical practice, attempts to work with fiducial inference have fallen out of fashion in favour of frequentist inference, Bayesian inference and decision theory. However, fiducial inference is important in the history of statistics since its development led to the parallel development of concepts and tools in theoretical statistics that are widely used.