Prise de décision collectiveLa prise de décision collective (en anglais, collaborative decision making ou CDM) est une situation où des individus sont rassemblés en un groupe pour résoudre des problèmes. Selon l'idée de synergie, les décisions prises collectivement ont tendance à être plus efficaces que les décisions prises individuellement. Cependant, il existe des situations dans lesquelles les décisions prises en groupe aboutissent à un mauvais jugement. En psychologie sociale, la prise de décision collective peut être définie comme .
Chaîne de Markovvignette|Exemple élémentaire de chaîne de Markov, à deux états A et E. Les flèches indiquent les probabilités de transition d'un état à un autre. En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus stochastique possédant la propriété de Markov : l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »).
Méthode du consensusDans le monde politique et technique et dans les groupes, tout ou partie des acteurs ont souvent besoin d'appuyer leurs choix et décisions stratégiques sur des « preuves » rationnelles et scientifiques. Or ils sont souvent confrontés à des incertitudes. Pour réduire cette incertitude diverses méthodes ont été au cours du élaborées et affinées, dont les conférences de consensus qui aboutissent parfois à des résultats provisoires mais plus ou moins relativement consensuels. C'est un des moyens de résolution non violente de conflits.
Prise de décisionvignette|Lorsqu'il s'agit de prendre une décision, il est bon de savoir que des situations différentes nécessitent une approche différente. Il n'y a pas de façon unique de penser/d'agir. la plupart du temps, nous errons dans l'espace du désordre, sans savoir ce qui se passe, sans savoir comment agir. Dans ce cas, nous avons tendance à entrer dans l'espace avec lequel nous nous sentons le plus à l'aise et à commencer à agir. Lorsque vous avez trouvé le Saint Graal, la solution unique pour chaque problème, vous feriez mieux de faire attention.
Propriété de Markovvignette|Exemple de processus stochastique vérifiant la propriété de Markov: un mouvement Brownien (ici représenté en 3D) d'une particule dont la position à un instant t+1 ne dépend que de la position précédente à l'instant t. En probabilité, un processus stochastique vérifie la propriété de Markov si et seulement si la distribution conditionnelle de probabilité des états futurs, étant donnés les états passés et l'état présent, ne dépend en fait que de l'état présent et non pas des états passés (absence de « mémoire »).
Accueil et traitement des urgencesright|thumb|Entrée du service d'urgences de la Clinique Saint-Jean à Bruxelles. right|thumb|Accueil et le traitement des urgences à Édimbourg, en Écosse. Accueil et traitement des urgences (ATU) désigne la fonction des centres hospitaliers dans le domaine de la prise en charge continue des personnes blessées, malades ou victimes de phénomènes exceptionnels et difficilement prévisibles. Les phénomènes exceptionnels en question peuvent désigner des incidents liés à des événements comme la canicule d'août 2003 en France, ou d'attaques chimiques, bactériologiques, etc.
Markov modelIn probability theory, a Markov model is a stochastic model used to model pseudo-randomly changing systems. It is assumed that future states depend only on the current state, not on the events that occurred before it (that is, it assumes the Markov property). Generally, this assumption enables reasoning and computation with the model that would otherwise be intractable. For this reason, in the fields of predictive modelling and probabilistic forecasting, it is desirable for a given model to exhibit the Markov property.
UrgentisteUn urgentiste (ou urgentologue ou médecin d'urgence au Canada) est un médecin spécialisé en médecine d'urgence. La médecine de catastrophe est une sous-spécialité de la médecine d'urgence. Il s'agit d'une personne qui assure la permanence des soins et qui traite les personnes blessées ou atteintes de souffrances aiguës au service des urgences d'un hôpital. Elle s'occupe, entre autres, d'évaluer les cas, d'établir l'ordre d'urgence, d'émettre rapidement des diagnostics et de prodiguer les soins appropriés.
Decision-making softwareDecision-making software (DM software) is software for computer applications that help individuals and organisations make choices and take decisions, typically by ranking, prioritizing or choosing from a number of options. An early example of DM software was described in 1973. Before the advent of the World Wide Web, most DM software was spreadsheet-based, with the first web-based DM software appearing in the mid-1990s. Nowadays, many DM software products (mostly web-based) are available – e.g.
Aide médicale urgentethumb|L'étoile de vie, symbole des ambulances et des urgences aux États-Unis notamment. Le Bâton d'Asclépios peut-être absent du symbole utilisé dans d'autres pays. L'aide médicale urgente, désignée aussi par l'acronyme AMU, est le dispositif mis en place par un État pour apporter une aide médicale aux personnes victimes d'un accident ou d'une affection brutale et inattendue. Elle comporte en général un système d'alerte, par lequel la victime ou les témoins peuvent demander cette aide médicale urgente, et des services mobiles d'intervention.
Médecine d'urgenceLa médecine d'urgence rassemble les ressources médicales et chirurgicales pour faire face à une urgence, c'est-à-dire la perception d'une situation où la personne sans soins empire rapidement, exposée au risque à bref délai de séquelles irréversibles ou du décès. Lorsque le nombre de victimes est important et/ou que les infrastructures locales sont touchées (routes, hôpitaux...), on parle de médecine de catastrophe.
Méthode de Monte-Carlo par chaînes de MarkovLes méthodes de Monte-Carlo par chaînes de Markov, ou méthodes MCMC pour Markov chain Monte Carlo en anglais, sont une classe de méthodes d'échantillonnage à partir de distributions de probabilité. Ces méthodes de Monte-Carlo se basent sur le parcours de chaînes de Markov qui ont pour lois stationnaires les distributions à échantillonner. Certaines méthodes utilisent des marches aléatoires sur les chaînes de Markov (algorithme de Metropolis-Hastings, échantillonnage de Gibbs), alors que d'autres algorithmes, plus complexes, introduisent des contraintes sur les parcours pour essayer d'accélérer la convergence (Monte Carlo Hybride, Surrelaxation successive).
Andreï Markov (mathématicien)Andreï Andreïevitch Markov (en Андрей Андреевич Марков) (1856-1922) est un mathématicien russe. Il est considéré comme le fondateur de la théorie des processus stochastiques. La mère d'Andreï Markov, Nadejda Petrovna, est la fille d'un ouvrier d'État. Son père, Andreï Grigorievitch Markov, membre de la petite noblesse, sert dans le département des forêts, puis devient gestionnaire de domaine privé. Dans ses premières années, Markov est en mauvaise santé et jusqu'à l'âge de dix ans, il ne peut marcher qu'à l'aide de béquilles.
Urgencesvignette|Utilisation des deux numéros d'appel d'urgence approuvés par l'UIT dans le monde : Dans le langage courant, les urgences sont le service d'un hôpital qui s'occupe de recevoir les malades et les blessés qui se présentent d'eux-mêmes, ou qui sont amenés par les services de secours (SAMU, pompiers, etc.). Dans la pratique, il existe tout un réseau mis en œuvre pour parer aux urgences médicales (dans toute la dimension bio-psycho-sociale du terme).
Outilthumb|Une boîte à outils en bois des années 1950. Un outil est un objet physique utilisé par un être vivant directement, ou par l'intermédiaire d'une machine, afin d'exercer une action le plus souvent mécanique, ou thermique, sur un élément d'environnement à traiter (matière brute, objet fini ou semi-fini, être vivant, etc). Il améliore l'efficacité des actions entreprises ou donne accès à des actions impossibles autrement. Beaucoup procurent un avantage mécanique en fonctionnant selon le principe d'une machine simple, comme la pince-monseigneur, qui exploite le principe du levier.
Processus de décision markovienEn théorie de la décision et de la théorie des probabilités, un processus de décision markovien (en anglais Markov decision process, MDP) est un modèle stochastique où un agent prend des décisions et où les résultats de ses actions sont aléatoires. Les MDPs sont utilisés pour étudier des problèmes d'optimisation à l'aide d'algorithmes de programmation dynamique ou d'apprentissage par renforcement. Les MDPs sont connus depuis les années 1950. Une grande contribution provient du travail de Ronald A.
Modèle de Markov cachéUn modèle de Markov caché (MMC, terme et définition normalisés par l’ISO/CÉI [ISO/IEC 2382-29:1999]) — (HMM)—, ou plus correctement (mais non employé) automate de Markov à états cachés, est un modèle statistique dans lequel le système modélisé est supposé être un processus markovien de paramètres inconnus. Contrairement à une chaîne de Markov classique, où les transitions prises sont inconnues de l'utilisateur mais où les états d'une exécution sont connus, dans un modèle de Markov caché, les états d'une exécution sont inconnus de l'utilisateur (seuls certains paramètres, comme la température, etc.
Machine-outilUne machine-outil est un équipement mécanique destiné à exécuter un usinage, ou autre tâche répétitive, avec une précision et une puissance adaptées. Elle imprime à un outil, qu'il soit fixe, mobile, ou tournant, un mouvement permettant d'usiner ou de déformer une pièce ou un ensemble fixés sur un plateau mobile ou non. Le tour et notamment le tour à métaux a joué un rôle de premier plan au cours de la révolution industrielle. C'est la machine élémentaire de la mécanique industrielle, celle sans laquelle aucune autre machine ne peut voir le jour.
Strategic thinkingStrategic thinking is a mental or thinking process applied by an individual in the context of achieving a goal or set of goals. As a cognitive activity, it produces thought. When applied in an organizational strategic management process, strategic thinking involves the generation and application of unique business insights and opportunities intended to create competitive advantage for a firm or organization. It can be done individually, as well as collaboratively among key people who can positively alter an organization's future.
Stratégie d'entrepriseLa stratégie d'entreprise est l'ensemble des choix d'allocation de ressources qui définissent le périmètre d'activité d'une organisation en vue de réaliser ses objectifs. Les axes de stratégies classiques cherchent à assurer sa rentabilité, son développement, sa pérennité et le bien-être qu'elle apporte aux salariés. Elle correspond aux axes de développement choisis pour l'entreprise et se concrétise à travers un système d'objectifs et un modèle économique (ou une chaîne de valeur) piloté par un processus décisionnel complexe : la décision stratégique.