Énergie de fusion nucléairevignette| L'expérience de fusion magnétique du Joint European Torus (JET) en 1991. L'énergie de fusion nucléaire est une forme de production d'électricité du futur qui utilise la chaleur produite par des réactions de fusion nucléaire. Dans un processus de fusion, deux noyaux atomiques légers se combinent pour former un noyau plus lourd, tout en libérant de l'énergie. De telles réactions se produisent en permanence au sein des étoiles. Les dispositifs conçus pour exploiter cette énergie sont connus sous le nom de réacteurs à fusion nucléaire.
Tokamakthumb|Vue intérieure du tore du Tokamak à configuration variable (TCV), dont les parois sont recouvertes de tuiles de graphite. Un tokamak est un dispositif de confinement magnétique expérimental explorant la physique des plasmas et les possibilités de produire de l'énergie par fusion nucléaire. Il existe deux types de tokamaks aux caractéristiques sensiblement différentes, les tokamaks traditionnels toriques (objet de cet article) et les tokamaks sphériques.
Focalisateur de plasma denseUn focalisateur de plasma dense (en anglais dense plasma focus, abrégé DPF), est un appareil qui, par accélération et compression électromagnétiques, donne naissance à un cordon de plasma à vie courte qui produit, grâce aux températures et densités très élevées qu'il atteint, une abondance de rayonnements multiples. Sa conception, qui date du début des années 1960, est due à la fois à l'Américain J.W. Mather et au Russe N.V. Filippov, qui l'ont inventé parallèlement et indépendamment l'un de l'autre.
ITERLe réacteur thermonucléaire expérimental international, ou ITER (acronyme de l'anglais International thermonuclear experimental reactor, également mot latin signifiant « chemin » ou « voie »), est un projet international de réacteur nucléaire de recherche civil à fusion nucléaire de type tokamak, situé à proximité immédiate du centre d’études nucléaires de Cadarache à Saint-Paul-lez-Durance (Bouches-du-Rhône, France). Le projet de recherche s'inscrit dans une démarche à long terme visant à l'industrialisation de la fusion nucléaire.
Fusion par confinement magnétiqueLa fusion par confinement magnétique (FCM) est une méthode de confinement utilisée pour porter une quantité de combustible aux conditions de température et de pression désirées pour la fusion nucléaire. De puissants champs électromagnétiques sont employés pour atteindre ces conditions. Le combustible doit au préalable être converti en plasma, celui-ci se laisse ensuite influencer par les champs magnétiques. Il s'agit de la méthode utilisée dans les tokamaks toriques et sphériques, les stellarators et les machines à piège à miroirs magnétiques.
Statistical model validationIn statistics, model validation is the task of evaluating whether a chosen statistical model is appropriate or not. Oftentimes in statistical inference, inferences from models that appear to fit their data may be flukes, resulting in a misunderstanding by researchers of the actual relevance of their model. To combat this, model validation is used to test whether a statistical model can hold up to permutations in the data.
Data mappingLe data mapping est un procédé permettant de définir au niveau d'un langage de programmation la correspondance entre deux modèles de données. L'Office québécois de la langue française propose comme équivalent en français mise en correspondance de données. L'accès aux données se fait habituellement à travers des requêtes SQL fortement typées selon la structure des données. Le mapping permet aux utilisateurs d'accéder aux données à travers un ensemble de fonctions sans se soucier de la structure des bases de données.
Burning plasmaIn plasma physics, a burning plasma is one in which most of the heating comes from fusion reactions involving thermal plasma ions. The Sun and similar stars are a burning plasma, and in 2020 the National Ignition Facility achieved burning plasma. A closely related concept is that of an ignited plasma, in which all of the heating comes from fusion reactions. Sun In the Sun and other similar stars, those fusion reactions involve hydrogen ions.
Vérification formelleIn the context of hardware and software systems, formal verification is the act of proving or disproving the correctness of intended algorithms underlying a system with respect to a certain formal specification or property, using formal methods of mathematics. Formal verification can be helpful in proving the correctness of systems such as: cryptographic protocols, combinational circuits, digital circuits with internal memory, and software expressed as source code.
Fusion par confinement inertielLa fusion par confinement inertiel est une méthode utilisée pour porter une quantité de combustible aux conditions de température et de pression désirées en vue d'atteindre la fusion nucléaire. Le confinement du combustible de fusion est réalisé à l'aide de forces inertielles. Cette méthode peut être mise en œuvre grâce à des techniques diverses, dont : striction axiale ; confinement inertiel par laser. D'autres méthodes permettent de réaliser le confinement du combustible nécessaire à la fusion, notamment le confinement magnétique, le confinement électrostatique et la fusion catalysée par muons.
Edge-localized modeAn edge-localized mode (ELM) is a plasma instability occurring in the edge region of a tokamak plasma due to periodic relaxations of the edge transport barrier in high-confinement mode. Each ELM burst is associated with expulsion of particles and energy from the confined plasma into the scrape-off layer. This phenomenon was first observed in the ASDEX tokamak in 1981. Diamagnetic effects in the model equations expand the size of the parameter space in which solutions of repeated sawteeth can be recovered compared to a resistive MHD model.
Consolidation informatiqueLa consolidation est en informatique le regroupement cohérent de données. Elle concerne généralement des données organisées logiquement ou liées entre elles. Plus spécifiquement pour les tableurs, il s’agit du regroupement de plusieurs tableaux issus de feuilles différentes (les feuilles sont des composantes des tableurs) voire de classeurs différents. La consolidation de données consiste à rassembler plusieurs données semblables afin d’obtenir un rapport plus facile à consulter que l’information brute présente sur le serveur, avec le moins de perte d’information possible.
Analyse des donnéesL’analyse des données (aussi appelée analyse exploratoire des données ou AED) est une famille de méthodes statistiques dont les principales caractéristiques sont d'être multidimensionnelles et descriptives. Dans l'acception française, la terminologie « analyse des données » désigne donc un sous-ensemble de ce qui est appelé plus généralement la statistique multivariée. Certaines méthodes, pour la plupart géométriques, aident à faire ressortir les relations pouvant exister entre les différentes données et à en tirer une information statistique qui permet de décrire de façon plus succincte les principales informations contenues dans ces données.
Traductionvignette|La Pierre de Rosette, qui a permis le déchiffrement des hiéroglyphes au . La traduction (dans son acception principale de traduction interlinguale) est le fait de faire passer un texte rédigé dans une langue (« langue source », ou « langue de départ ») dans une autre langue (« langue cible », ou « langue d'arrivée »). Elle met en relation au moins deux langues et deux cultures, et parfois deux époques.
Validation croiséeLa validation croisée () est, en apprentissage automatique, une méthode d’estimation de fiabilité d’un modèle fondée sur une technique d’échantillonnage. Supposons posséder un modèle statistique avec un ou plusieurs paramètres inconnus, et un ensemble de données d'apprentissage sur lequel on peut apprendre (ou « entraîner ») le modèle. Le processus d'apprentissage optimise les paramètres du modèle afin que celui-ci corresponde le mieux possible aux données d'apprentissage.
DonnéeUne donnée est ce qui est connu et qui sert de point de départ à un raisonnement ayant pour objet la détermination d'une solution à un problème en relation avec cette donnée. Cela peut être une description élémentaire qui vise à objectiver une réalité, le résultat d'une comparaison entre deux événements du même ordre (mesure) soit en d'autres termes une observation ou une mesure. La donnée brute est dépourvue de tout raisonnement, supposition, constatation, probabilité.
Cartographie en ligneLa cartographie en ligne (en anglais : web mapping ou webmapping) est la forme de la cartographie numérique qui fait usage d'Internet pour pouvoir produire, concevoir, traiter et publier des cartes géographiques. Elle repose sur les services Web dans la logique du cloud computing. Avec le Web 2.0, de nombreux services Web cartographiques sont apparus (cf palette en fin d'article). Certains sont « propriétaires », tels que Google Maps, Google Earth, Bing Maps, etc. D'autres sont fondés sur des démarches coopératives libres, tel que OpenStreetMap.
Intégration continuevignette|ZAPTEST screenshot L'intégration continue est un ensemble de pratiques utilisées en génie logiciel consistant à vérifier à chaque modification de code source que le résultat des modifications ne produit pas de régression dans l'application développée. Le concept a pour la première fois été mentionné par Grady Booch et se réfère généralement à la pratique de l'extreme programming. Le principal but de cette pratique est de détecter les problèmes d'intégration au plus tôt lors du développement.
StellaratorLe stellarator (de stellar : stellaire, et generator : générateur) est un dispositif destiné à la production de réactions contrôlées de fusion nucléaire proche du tokamak. Le confinement du plasma est entièrement réalisé par un champ magnétique hélicoïdal créé par l'arrangement complexe de bobines autour du tore, alimentées en courants forts et appelées bobines poloïdales. Le stellarator est analogue au tokamak à la différence qu'il n'utilise pas de courant toroïdal circulant à l'intérieur du plasma pour le confiner.
Software verificationSoftware verification is a discipline of software engineering, programming languages, and theory of computation whose goal is to assure that software satisfies the expected requirements. A broad definition of verification makes it related to software testing. In that case, there are two fundamental approaches to verification: Dynamic verification, also known as experimentation, dynamic testing or, simply testing. - This is good for finding faults (software bugs).