chaîne de Markov

Définition, traduction, prononciation, anagramme et synonyme sur le dictionnaire libre Wiktionnaire.
Voir aussi : chaine de Markov

Français[modifier le wikicode]

Étymologie[modifier le wikicode]

D’après Andreï Markov.

Locution nominale [modifier le wikicode]

Singulier Pluriel
chaîne de Markov chaînes de Markov
\ʃɛn də maʁ.kɔf\
Exemple élémentaire de chaîne de Markov, à deux états A et E. Les flèches indiquent les probabilités de transition d’un état à un autre.

chaîne de Markov \ʃɛn də maʁ.kɔf\ féminin (orthographe traditionnelle)

  1. (Probabilités) Représentation de la prédiction du futur grâce à l’état présent du processus.

Variantes orthographiques[modifier le wikicode]

Dérivés[modifier le wikicode]

Traductions[modifier le wikicode]

Prononciation[modifier le wikicode]

Voir aussi[modifier le wikicode]