Boson de Higgsthumb|De gauche à droite : Kibble, Guralnik, Hagen, Englert et Brout, en 2010. Le boson de Higgs ou boson BEH, est une particule élémentaire dont l'existence, postulée indépendamment en juin 1964 par François Englert et Robert Brout, par Peter Higgs, en août, et par Gerald Guralnik, Carl Richard Hagen et Thomas Kibble, permet d'expliquer la brisure de l'interaction unifiée électrofaible (EWSB, pour l'anglais ) en deux interactions par l'intermédiaire du mécanisme de Brout-Englert-Higgs-Hagen-Guralnik-Kibble et d'expliquer ainsi pourquoi certaines particules ont une masse et d'autres n'en ont pas.
Bosons W et ZIn particle physics, the W and Z bosons are vector bosons that are together known as the weak bosons or more generally as the intermediate vector bosons. These elementary particles mediate the weak interaction; the respective symbols are _W boson+, _W boson-, and _Z boson0. The _W boson+- bosons have either a positive or negative electric charge of 1 elementary charge and are each other's antiparticles. The _Z boson0 boson is electrically neutral and is its own antiparticle. The three particles each have a spin of 1.
DonnéeUne donnée est ce qui est connu et qui sert de point de départ à un raisonnement ayant pour objet la détermination d'une solution à un problème en relation avec cette donnée. Cela peut être une description élémentaire qui vise à objectiver une réalité, le résultat d'une comparaison entre deux événements du même ordre (mesure) soit en d'autres termes une observation ou une mesure. La donnée brute est dépourvue de tout raisonnement, supposition, constatation, probabilité.
Big dataLe big data ( « grosses données » en anglais), les mégadonnées ou les données massives, désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologies et de méthodes analytiques particulières pour créer de la valeur, et qui dépassent en général les capacités d'une seule et unique machine et nécessitent des traitements parallélisés. L’explosion quantitative (et souvent redondante) des données numériques permet une nouvelle approche pour analyser le monde.
Analyse des donnéesL’analyse des données (aussi appelée analyse exploratoire des données ou AED) est une famille de méthodes statistiques dont les principales caractéristiques sont d'être multidimensionnelles et descriptives. Dans l'acception française, la terminologie « analyse des données » désigne donc un sous-ensemble de ce qui est appelé plus généralement la statistique multivariée. Certaines méthodes, pour la plupart géométriques, aident à faire ressortir les relations pouvant exister entre les différentes données et à en tirer une information statistique qui permet de décrire de façon plus succincte les principales informations contenues dans ces données.
Boson de GoldstoneLe boson de Goldstone, parfois appelé boson de Nambu-Goldstone, est un type de particule dont l’existence est impliquée par le phénomène de brisure spontanée de symétrie. D’abord prédit par Yoichiro Nambu puis théorisé par Jeffrey Goldstone, il fait aujourd’hui partie intégrante de la théorie quantique des champs. Il est de spin et masse nuls, bien qu’il puisse acquérir une masse dans certains cas en devenant ainsi un . La nécessité d'un boson de Goldstone dans le modèle standard vient du fait que les bosons de jauge étaient alors supposés ne pas avoir de masse.
Système de fichiersLe terme système de fichiers (abrégé « FS » pour File System, parfois filesystem en anglais) désigne de façon ambigüe : soit l'organisation hiérarchique des fichiers au sein d'un système d'exploitation (on parle par exemple du file system d'une machine unix organisé à partir de sa racine (/) ) soit l'organisation des fichiers au sein d'un volume physique ou logique, qui peut être de différents types (par exemple NTFS, , FAT32, ext2fs, ext3fs, ext4fs, zfs, btrfs, etc.
Notebook (programmation)vignette|Notebook du logiciel informatique IPython.|338x338px En programmation informatique, un notebook, aussi fréquemment appelé calepin électronique, voire simplement calepin est une interface de permettant de combiner des sections en langage naturel et des sections en langage informatique. Les notebooks sont notamment utilisés en science des données pour explorer et analyser des données. Les notebooks peuvent ensuite être enregistrés sous forme de document. C'est un exemple de programmation lettrée.
Modèle standard de la physique des particulesvignette|upright=2.0|Modèle standard des particules élémentaires avec les trois générations de fermions (trois premières colonnes), les bosons de jauge (quatrième colonne) et le boson de Higgs (cinquième colonne). Le modèle standard de la physique des particules est une théorie qui concerne l'électromagnétisme, les interactions nucléaires faible et forte, et la classification de toutes les particules subatomiques connues. Elle a été développée pendant la deuxième moitié du , dans une initiative collaborative mondiale, sur les bases de la mécanique quantique.
Science des donnéesLa science des données est l'étude de l’extraction automatisée de connaissance à partir de grands ensembles de données. Plus précisément, la science des données est un domaine interdisciplinaire qui utilise des méthodes, des processus, des algorithmes et des systèmes scientifiques pour extraire des connaissances et des idées à partir de nombreuses données structurées ou non . Elle est souvent associée aux données massives et à l'analyse des données.
Chiral symmetry breakingIn particle physics, chiral symmetry breaking is the spontaneous symmetry breaking of a chiral symmetry – usually by a gauge theory such as quantum chromodynamics, the quantum field theory of the strong interaction. Yoichiro Nambu was awarded the 2008 Nobel prize in physics for describing this phenomenon ("for the discovery of the mechanism of spontaneous broken symmetry in subatomic physics").
Pion (particule)Un pion ou méson pi est une des trois particules : π, π+ ou π−. Ce sont les particules les plus légères de la famille des mésons. Elles jouent un rôle important dans l'explication des propriétés à basse énergie de la force nucléaire forte ; notamment, la cohésion du noyau atomique est assurée par l'échange de pions entre les nucléons (protons et neutrons). Le substantif masculin pion (prononcé en français standard) est composé de pi, transcription de la lettre grecque π, et de -on, tiré de électron.
Fichier informatiquethumb|Pictogrammes représentant des fichiers. Un fichier informatique est au sens commun, une collection, un ensemble de données numériques réunies sous un même nom, enregistrées sur un support de stockage permanent, appelé mémoire de masse, tel qu'un disque dur, un cédérom, une mémoire flash ou une bande magnétique, une série de cartes perforées et manipulées comme une unité. Techniquement un fichier est une information numérique constituée d'une séquence d'octets, c'est-à-dire d'une séquence de nombres, permettant des usages divers.
MathematicaWolfram Mathematica est un logiciel de calcul formel édité par Wolfram Research depuis 1988 et utilisé dans les milieux scientifiques pour effectuer des calculs algébriques et créer des programmes. Wolfram commence à travailler sur le logiciel en 1986 et en sort la première version en 1988. Il est disponible sur de nombreuses plateformes et supporte un large choix d'opérations. L'entreprise a mis en service un site Internet dit intelligent, basé entre autres sur Mathematica : WolframAlpha.
Entrepôt de donnéesvignette|redresse=1.5|Vue d'ensemble d'une architecture entrepôt de données. Le terme entrepôt de données ou EDD (ou base de données décisionnelle ; en anglais, data warehouse ou DWH) désigne une base de données utilisée pour collecter, ordonner, journaliser et stocker des informations provenant de base de données opérationnelles et fournir ainsi un socle à l'aide à la décision en entreprise. Un entrepôt de données est une base de données regroupant une partie ou l'ensemble des données fonctionnelles d'une entreprise.
Gestion des donnéesLa gestion des données est une discipline de gestion qui tend à valoriser les données en tant que ressources numériques. La gestion des données permet d'envisager le développement d'architectures, de réglementations, de pratiques et de procédures qui gèrent correctement les besoins des organismes sur le plan de tout le cycle de vie des données. Les données sont, avec les traitements, l'un des deux aspects des systèmes d'information traditionnellement identifiés, et l'un ne peut aller sans l'autre pour un management du système d'information cohérent.
Analyse numériqueL’analyse numérique est une discipline à l'interface des mathématiques et de l'informatique. Elle s’intéresse tant aux fondements qu’à la mise en pratique des méthodes permettant de résoudre, par des calculs purement numériques, des problèmes d’analyse mathématique. Plus formellement, l’analyse numérique est l’étude des algorithmes permettant de résoudre numériquement par discrétisation les problèmes de mathématiques continues (distinguées des mathématiques discrètes).
Optimization problemIn mathematics, computer science and economics, an optimization problem is the problem of finding the best solution from all feasible solutions. Optimization problems can be divided into two categories, depending on whether the variables are continuous or discrete: An optimization problem with discrete variables is known as a discrete optimization, in which an object such as an integer, permutation or graph must be found from a countable set.
Files-11Files-11 is the used in the RSX-11 and OpenVMS operating systems from Digital Equipment Corporation. It supports record-oriented I/O, remote network access, and . The original ODS-1 layer is a ; the ODS-2 version is a , with support for access control lists,. Files-11 is similar to, but significantly more advanced than, the file systems used in previous Digital Equipment Corporation operating systems such as TOPS-20 and RSTS/E. The native OpenVMS file system is descended from older DEC operating systems and is similar in many ways, both having been designed by Dave Cutler.
Stabilité numériqueEn analyse numérique, une branche des mathématiques, la stabilité numérique est une propriété globale d’un algorithme numérique, une qualité nécessaire pour espérer obtenir des résultats ayant du sens. Une définition rigoureuse de la stabilité dépend du contexte. Elle se réfère à la propagation des erreurs au cours des étapes du calcul, à la capacité de l’algorithme de ne pas trop amplifier d’éventuels écarts, à la précision des résultats obtenus. Le concept de stabilité ne se limite pas aux erreurs d’arrondis et à leurs conséquences.