Supercalculateur exaflopiquevignette|redresse=1.5|Supercalculateur Summit (ou OLCF-4) développé par IBM pour une utilisation au Oak Ridge National Laboratory. Puissance : , nombre de nœuds : . Les supercalculateurs exaflopiques (Exascale computing en anglais) sont des ordinateurs de type supercalculateur fonctionnant selon une architecture massivement parallèle et dont la puissance de calcul dépasse . La machine décompose les tâches à effectuer en millions de sous-tâches, dont chacune d'entre elles est ensuite réalisée de manière simultanée par un processeur.
Manycore processorManycore processors are special kinds of multi-core processors designed for a high degree of parallel processing, containing numerous simpler, independent processor cores (from a few tens of cores to thousands or more). Manycore processors are used extensively in embedded computers and high-performance computing. Manycore processors are distinct from multi-core processors in being optimized from the outset for a higher degree of explicit parallelism, and for higher throughput (or lower power consumption) at the expense of latency and lower single-thread performance.
Petascale computingPetascale computing refers to computing systems capable of calculating at least 1015 floating point operations per second (1 petaFLOPS). Petascale computing allowed faster processing of traditional supercomputer applications. The first system to reach this milestone was the IBM Roadrunner in 2008. Petascale supercomputers were succeeded by exascale computers. Floating point operations per second (FLOPS) are one measure of computer performance.
Calcul intensifLe terme Calcul intensif (ou Calcul Haute Performance) - en anglais : High-performance computing (HPC) - désigne les activités de calculs réalisés sur un supercalculateur, en particulier à des fins de simulation numérique et de pré-apprentissage d'intelligences artificielles. Le calcul intensif rassemble l'administration système (réseau et sécurité) et la programmation parallèle en un champ multidisciplinaire qui combine l'électronique numérique, le développement d'architectures informatiques, la programmation système, les langages informatiques, l'algorithmique et les techniques de calcul.
Performances (informatique)En informatique, les performances énoncent les indications chiffrées mesurant les possibilités maximales ou optimales d'un matériel, d'un logiciel, d'un système ou d'un procédé technique pour exécuter une tâche donnée. Selon le contexte, les performances incluent les mesures suivantes : Un faible temps de réponse pour effectuer une tâche donnée Un débit élevé (vitesse d'exécution d'une tâche) L'efficience : faible utilisation des ressources informatiques : processeur, mémoire, stockage, réseau, consommation électrique, etc.
Frontier (superordinateur)Frontier, ou OLCF-5, est le premier supercalculateur exaflopique au monde, hébergé à l'Oak Ridge Leadership Computing Facility (OLCF) dans le Tennessee, aux États-Unis. C'est le successeur de Summit (OLCF-4). Frontier devient en juin 2022 le supercalculateur le plus rapide au monde, avec une performance au Rmax de . Frontier utilise une combinaison de processeurs AMD Epyc 7A53s avec 64 cœurs et de GPU Radeon Instinct MI250X, et occupe 74 baies .
Fugaku 415-PFLOPSFugaku 415-PFLOPS est un superordinateur japonais, développé par Fujitsu pour le compte de l'institut scientifique japonais RIKEN. En juin 2020, il est présenté comme le plus puissant supercalculateur au monde, atteignant les 415 pétaFLOPS, soit 2,8 fois plus que l'ancien détenteur du titre, Summit d'IBM. Il a conservé ensuite ce titre à trois reprises consécutives, en novembre 2020, puis en juin et novembre 2021. Il utilise à la fois un noyau léger McKernel et le noyau Linux basé sur une distribution GNU/Linux Red Hat Linux 8 pour son système.
Ingénierie de fiabilitéL'ingénierie de fiabilité est un domaine de l'ingénierie, qui traite de l'étude, de l'évaluation et du Product Lifecycle Management de la fiabilité : l'habilité d'un système ou d'un composant à remplir ses fonctions exigées dans des conditions déterminées pour une période de temps déterminé. L'ingénierie de fiabilité est une sous-discipline au sein de l'ingénierie des systèmes. La fiabilité est souvent mesurée en probabilité de défaillance, fréquence de défaillance, ou en termes de disponibilité, une probabilité dérivée de la fiabilité et de la maintenabilité.
TOP500Le TOP500 est un projet de classification, par ordre décroissant, des 500 superordinateurs les plus puissants au monde. Depuis , le projet met à jour sa liste tous les six mois : en juin lors de l'International Supercomputing Conference, qui a lieu en Allemagne ; en novembre pendant l'ACM/IEEE Supercomputing Conference, qui a lieu aux États-Unis et est organisée par l'IEEE et l'Association for Computing Machinery.
Computer performance by orders of magnitudeThis list compares various amounts of computing power in instructions per second organized by order of magnitude in FLOPS. Scientific E notation index: 2 | 3 | 6 | 9 | 12 | 15 | 18 | 21 | 24 | >24 TOC 5×10−1: Computing power of the average human mental calculation for multiplication using pen and paper 1 OP/S: Power of an average human performing calculations using pen and paper 1 OP/S: Computing power of Zuse Z1 5 OP/S: World record for addition set 5×101: Upper end of serialized human perception computation (light bulbs do not flicker to the human observer) 2.
Superordinateurvignette|redresse=1.2|Le supercalculateur IBM Blue Gene/P de l'Argonne National Laboratory fonctionne avec utilisant un système de refroidissement standard par air, groupé dans et interconnectés par un réseau de fibre optique à haute vitesse (2007). vignette|redresse=1.2|Le superordinateur Columbia du centre de recherche Ames Research Center de la NASA, composé de Intel Itanium 2, regroupés en de , et exécutant un système d'exploitation Linux (2006).
Fidélité (psychométrie)En psychométrie, la fidélité d'un test psychologique, ou fiabilité d'un test (reliability en anglais), est une des trois grandes mesures de la qualité du test (les deux autres étant la sensibilité et la validité). Cette mesure est prise lors d'une procédure de standardisation d'un test. Avant sa publication, un test psychologique est généralement évalué sur de larges échantillons de la population. Les résultats de cette procédure sont évalués : si le test obtient de bons indices de fidélité et de validité, il est considéré comme suffisamment robuste pour être publié et utilisé.
Faillevignette|Vue aérienne de la faille de San Andreas (Californie). En géologie, une faille est une structure tectonique consistant en un plan ou une zone de rupture le long duquel deux blocs rocheux se déplacent l'un par rapport à l'autre. Ce plan divise un volume rocheux en deux compartiments qui ont glissé l'un par rapport à l'autre dans un contexte de déformation fragile. Ce déplacement et la déformation cisaillante sont dus aux forces exercées par les contraintes tectoniques, qui résultent de la tectonique des plaques ou à la force gravitaire (instabilité gravitaire).
Transistor bipolairevignette|Vue interne d'un transistor bipolaire de puissance 2N3055 conçu dans les années 1970. vignette|Transistor bipolaire monté en surface. Un transistor bipolaire est un dispositif électronique à base de semi-conducteur de la famille des transistors. Son principe de fonctionnement est basé sur deux jonctions PN, l'une en direct et l'autre en inverse. La polarisation de la jonction PN inverse par un faible courant électrique (parfois appelé effet transistor) permet de « commander » un courant beaucoup plus important, suivant le principe de l'amplification de courant.
Prédiction de gènesEn bio-informatique, la prédiction de gènes consiste à identifier les zones de l'ADN qui correspondent à des gènes (le reste étant non codant). Les méthodes par similitudes, aussi appelées méthodes par homologie ou méthodes extrinsèques, consistent à utiliser des informations extérieures au génome pour trouver les gènes. Plus précisément, ces méthodes consistent à comparer la séquence étudiée avec des séquences connues, rassemblées dans les bases de données.
SystèmeUn système est un ensemble d' interagissant entre eux selon certains principes ou règles. Par exemple une molécule, le système solaire, une ruche, une société humaine, un parti, une armée etc. Un système est déterminé par : sa frontière, c'est-à-dire le critère d'appartenance au système (déterminant si une entité appartient au système ou fait au contraire partie de son environnement) ; ses interactions avec son environnement ; ses fonctions (qui définissent le comportement des entités faisant partie du système, leur organisation et leurs interactions) ; Certains systèmes peuvent également avoir une mission (ses objectifs et sa raison d'être) ou des ressources, qui peuvent être de natures différentes (humaine, naturelle, matérielle, immatérielle.
Protein function predictionProtein function prediction methods are techniques that bioinformatics researchers use to assign biological or biochemical roles to proteins. These proteins are usually ones that are poorly studied or predicted based on genomic sequence data. These predictions are often driven by data-intensive computational procedures. Information may come from nucleic acid sequence homology, gene expression profiles, protein domain structures, text mining of publications, phylogenetic profiles, phenotypic profiles, and protein-protein interaction.
History of the transistorA transistor is a semiconductor device with at least three terminals for connection to an electric circuit. In the common case, the third terminal controls the flow of current between the other two terminals. This can be used for amplification, as in the case of a radio receiver, or for rapid switching, as in the case of digital circuits. The transistor replaced the vacuum-tube triode, also called a (thermionic) valve, which was much larger in size and used significantly more power to operate.
Protein–protein interaction predictionProtein–protein interaction prediction is a field combining bioinformatics and structural biology in an attempt to identify and catalog physical interactions between pairs or groups of proteins. Understanding protein–protein interactions is important for the investigation of intracellular signaling pathways, modelling of protein complex structures and for gaining insights into various biochemical processes.
Tolérance aux pannesvignette|Fichier GIF animé de 8 algorithmes ECT dans un réseau 802.1aq. La source est surlignée en violet, la destination en jaune. Les lignes violettes sont des chemins entre la source et la destination et l'épaisseur indique combien de chemins traversent un lien donné. La tolérance aux pannes (ou « insensibilité aux pannes ») désigne une méthode de conception permettant à un système de continuer à fonctionner, éventuellement de manière réduite (on dit aussi en « mode dégradé »), au lieu de tomber complètement en panne, lorsque l'un de ses composants ne fonctionne plus correctement.