Théorie des bifurcationsLa théorie des bifurcations, en mathématiques et en physique est l'étude de certains aspects des systèmes dynamiques. Une bifurcation intervient lorsqu'un petit changement d'un paramètre physique produit un changement majeur dans l'organisation du système. Des exemples classiques d'une bifurcation en sciences pures sont par exemple les rythmes circadiens de populations animales en biologie théorique et les solutions de météo en mathématique et physique non linéaire, en sciences de l'ingénieur il y a aussi le flambage d'une poutre élastique (l'expérience peut être faite avec une règle d'écolier) ou les transitions de phase de matériaux (température critique de bifurcation, concentration critique).
Bifurcation de HopfDans la théorie des bifurcations, une bifurcation de Hopf ou de Poincaré–Andronov–Hopf, des noms de Henri Poincaré, Eberhard Hopf, et Aleksandr Andronov, est une bifurcation locale dans laquelle un point fixe d'un système dynamique perd sa stabilité tandis qu'une paire de valeurs propres complexes conjuguées de la linéarisation autour du point fixe franchissent l'axe imaginaire du plan complexe. Pour un tour d'horizon plus général sur les bifurcations de Hopf et leurs applications notamment en physique et en électronique, voir.
Système dynamiqueEn mathématiques, en chimie ou en physique, un système dynamique est la donnée d’un système et d’une loi décrivant l'évolution de ce système. Ce peut être l'évolution d'une réaction chimique au cours du temps, le mouvement des planètes dans le système solaire (régi par la loi universelle de la gravitation de Newton) ou encore l'évolution de la mémoire d'un ordinateur sous l'action d'un programme informatique. Formellement on distingue les systèmes dynamiques à temps discrets (comme un programme informatique) des systèmes dynamiques à temps continu (comme une réaction chimique).
Diagramme de bifurcationdroite|vignette|Diagramme de bifurcation de la suite logistique. En mathématiques, et en particulier dans l'étude des systèmes dynamiques, un diagramme de bifurcation illustre les valeurs visitées asymptotiquement (points fixes, points périodiques, attracteurs chaotiques) par un système en fonction d'un paramètre. Fichier:Bifurcation DiagramB.png|Diagramme de bifurcation pour l'[[attracteur de Rössler]]. Fichier:Henon bifurcation map b=0.3.png|Diagramme de bifurcation pour l'[[attracteur de Hénon]].
Rythme cérébralUn rythme cérébral (appelé aussi activité neuro-électrique) désigne l'oscillation électromagnétique émise par le cerveau des êtres humains, mais également de tout être vivant. Le cortex frontal qui permet la cognition, la logique et le raisonnement est composé de neurones qui sont reliés entre eux par des synapses permettant la neurotransmission. Mesurables en volt et en hertz, ces ondes sont de très faible amplitude : de l'ordre du microvolt (chez l'être humain), elles ne suivent pas toujours une sinusoïde régulière.
Period-doubling bifurcationIn dynamical systems theory, a period-doubling bifurcation occurs when a slight change in a system's parameters causes a new periodic trajectory to emerge from an existing periodic trajectory—the new one having double the period of the original. With the doubled period, it takes twice as long (or, in a discrete dynamical system, twice as many iterations) for the numerical values visited by the system to repeat themselves. A period-halving bifurcation occurs when a system switches to a new behavior with half the period of the original system.
Modèles du neurone biologiquevignette|390x390px|Fig. 1. Dendrites, soma et axone myélinisé, avec un flux de signal des entrées aux dendrites aux sorties aux bornes des axones. Le signal est une courte impulsion électrique appelée potentiel d'action ou impulsion. vignette|Figure 2. Évolution du potentiel postsynaptique lors d'une impulsion. L'amplitude et la forme exacte de la tension peut varier selon la technique expérimentale utilisée pour acquérir le signal.
Pitchfork bifurcationIn bifurcation theory, a field within mathematics, a pitchfork bifurcation is a particular type of local bifurcation where the system transitions from one fixed point to three fixed points. Pitchfork bifurcations, like Hopf bifurcations, have two types – supercritical and subcritical. In continuous dynamical systems described by ODEs—i.e. flows—pitchfork bifurcations occur generically in systems with symmetry. The normal form of the supercritical pitchfork bifurcation is For , there is one stable equilibrium at .
Système complexevignette|Visualisation sous forme de graphe d'un réseau social illustrant un système complexe. Un système complexe est un ensemble constitué d'un grand nombre d'entités en interaction dont l'intégration permet d'achever un but commun. Les systèmes complexes sont caractérisés par des propriétés émergentes qui n'existent qu'au niveau du système et ne peuvent pas être observées au niveau de ses constituants. Dans certains cas, un observateur ne peut pas prévoir les rétroactions ou les comportements ou évolutions des systèmes complexes par le calcul, ce qui amène à les étudier à l'aide de la théorie du chaos.
Attracteur de RösslerL'attracteur de Rössler est l'attracteur produit par un système dynamique constitué de trois équations différentielles ordinaires contenant un terme non linéaire introduit en 1976 par Otto E. Rössler. Pour certaines valeurs des paramètres, ces équations différentielles produisent un attracteur chaotique. C'est un exemple d'attracteur étrange (selon l'appellation de David Ruelle ) et qui présente des propriétés fractales. Otto Rössler a initialement obtenu un système dynamique produisant un attracteur chaotique à partir d'une réaction chimique théorique.
Théorie des systèmes dynamiquesLa théorie des systèmes dynamiques désigne couramment la branche des mathématiques qui s'efforce d'étudier les propriétés d'un système dynamique. Cette recherche active se développe à la frontière de la topologie, de l'analyse, de la géométrie, de la théorie de la mesure et des probabilités. La nature de cette étude est conditionnée par le système dynamique étudié et elle dépend des outils utilisés (analytiques, géométriques ou probabilistes).
Suite logistiqueEn mathématiques, une suite logistique est une suite réelle simple, mais dont la récurrence n'est pas linéaire. Sa relation de récurrence est Suivant la valeur du paramètre μ (dans [0; 4] pour assurer que les valeurs de x restent dans [0; 1]), elle engendre soit une suite convergente, soit une suite soumise à oscillations, soit une suite chaotique. Souvent citée comme exemple de la complexité de comportement pouvant surgir d'une relation non linéaire simple, cette suite fut popularisée par le biologiste Robert May en 1976.
Ensemble de MandelbrotEn mathématiques, lensemble de Mandelbrot est une fractale définie comme l'ensemble des points c du plan complexe pour lesquels la suite de nombres complexes définie par récurrence par : est bornée. alt=Représentation de l'ensemble de Mandelbrot|vignette|L'ensemble de Mandelbrot (en noir) L'ensemble de Mandelbrot a été découvert par Gaston Julia et Pierre Fatou avant la Première Guerre mondiale. Sa définition et son nom actuel sont dus à Adrien Douady, en hommage aux représentations qu'en a réalisées Benoît Mandelbrot dans les années 1980.
Nombres de FeigenbaumEn mathématiques, les nombres de Feigenbaum ou constantes de Feigenbaum sont deux nombres réels découverts par le mathématicien Mitchell Feigenbaum en 1975. Tous deux expriment des rapports apparaissant dans les diagrammes de bifurcation de la théorie du chaos. vignette|droite|Exemple de diagramme de bifurcation (en abscisse, r désigne le paramètre μ). Les diagrammes de bifurcation concernent les valeurs limites prises par les suites de type où f est une fonction réelle, définie positive et trois fois dérivable sur [0, 1] et possédant un maximum unique sur cet intervalle (c’est-à-dire sans maximum relatif), noté f.
Théorie des catastrophesDans le domaine de la topologie différentielle, la théorie des catastrophes, fondée par René Thom, est une branche de la théorie des bifurcations qui a pour but de construire le modèle dynamique continu le plus simple pouvant engendrer une morphologie, donnée empiriquement, ou un ensemble de phénomènes discontinus. Plus précisément, il s'agit d'étudier qualitativement comment les solutions d'équations dépendent du nombre de paramètres qu'elles contiennent. Le terme de « catastrophe » désigne le lieu où une fonction change brusquement de forme.
Attracteur de HénonL'attracteur de Hénon est un système dynamique à temps discret. C'est l'un des systèmes dynamiques ayant un comportement chaotique les plus étudiés. L'attracteur de Hénon prend tout point du plan (x, y) et lui associe le nouveau point : Il dépend de deux paramètres, a et b, qui ont pour valeurs canoniques : a = 1,4 et b = 0,3. Pour ces valeurs, l'attracteur de Hénon est chaotique. Pour d'autres valeurs de a et b, il peut être chaotique, intermittent ou converger vers une orbite périodique.
Models of neural computationModels of neural computation are attempts to elucidate, in an abstract and mathematical fashion, the core principles that underlie information processing in biological nervous systems, or functional components thereof. This article aims to provide an overview of the most definitive models of neuro-biological computation as well as the tools commonly used to construct and analyze them.
Système dissipatifUn système dissipatif (ou structure dissipative) est un système qui évolue dans un environnement avec lequel il échange de l'énergie ou de la matière. C'est donc un système ouvert, loin d'un équilibre thermodynamique. Un système dissipatif est caractérisé par le bilan de ses échanges (échange d'énergie, création d'entropie), et l'apparition spontanée d'une brisure de symétrie spatiale (anisotropie) qui peut quelquefois laisser apparaître une structure complexe chaotique. L'expression « structures dissipatives » fut créée par Ilya Prigogine.
Codage neuronalLe codage neuronal désigne, en neurosciences, la relation hypothétique entre le stimulus et les réponses neuronales individuelles ou globales. C'est une théorie sur l'activité électrique du système nerveux, selon laquelle les informations, par exemple sensorielles, numériques ou analogiques, sont représentées dans le cerveau par des réseaux de neurones. Le codage neuronal est lié aux concepts du souvenir, de l'association et de la mémoire sensorielle.
Réseau de neurones à impulsionsLes réseaux de neurones à impulsions (SNNs : Spiking Neural Networks, en anglais) sont un raffinement des réseaux de neurones artificiels (ANNs : Artificial Neural Networks, en anglais) où l’échange entre neurones repose sur l’intégration des impulsions et la redescente de l’activation, à l’instar des neurones naturels. L’encodage est donc temporel et binaire. Le caractère binaire pose une difficulté de continuité au sens mathématique (cela empêche notamment l’utilisation des techniques de rétropropagation des coefficients - telle que la descente de gradient - utilisées classiquement dans les méthodes d'apprentissage).