Tabla de contenido:
Definición - ¿Qué significa la cadena de Markov?
Una cadena de Markov es un proceso matemático que pasa de un estado a otro dentro de un número finito de estados posibles. Es una colección de diferentes estados y probabilidades de una variable, donde su condición o estado futuro depende sustancialmente de su estado previo inmediato.
Una cadena de Markov también se conoce como cadena de Markov de tiempo discreto (DTMC) o proceso de Markov.
Techopedia explica la cadena de Markov
Las cadenas de Markov se utilizan principalmente para predecir el estado futuro de una variable o cualquier objeto en función de su estado pasado. Aplica enfoques probabilísticos para predecir el próximo estado. Las cadenas de Markov se exhiben usando gráficos dirigidos, que definen el estado actual y pasado y la probabilidad de transición de un estado a otro.
Las cadenas de Markov tienen varias implementaciones en informática y tecnologías de Internet. Por ejemplo, la fórmula de PageRank (r) empleada por la búsqueda de Google utiliza una cadena de Markov para calcular el PageRank de una página web en particular. También se utiliza para predecir el comportamiento del usuario en un sitio web en función de las preferencias o interacciones anteriores de los usuarios con él.
