Biografias y Vidas
Inicio
Buscador
Índices
Monografías
Reportajes

Andréi Andréievich Markov

(1856-1922) Matemático ruso, nacido en Riazán y fallecido en Petrogrado (actual San Petersburgo). Fue profesor de la Universidad de San Petersburgo en 1886 y elegido miembro de la Academia Rusa de Ciencias en 1896. En una primera época estuvo dedicado al estudio de las fracciones continuas, los límites de las integrales, la teoría de aproximación y las series de convergencia, para centrar luego su investigación en el cálculo de probabilidades y en los procesos en cadena que llevan su nombre y que tanta utilidad han tenido en el campo de la biología y las ciencias sociales, y particularmente en la lingüística y la hermenéutica, así como en la teoría moderna de las variables aleatorias.

El llamado Proceso de Markov es una familia de variables aleatorias en la cual la distribución de cada variable depende de la distribución de otra u otras variables cronológicamente anteriores en la familia.

Por ejemplo, si sobre una variable aleatoria n-dimensional se efectúan observaciones en los instantes t1, t2, ..., tn, se obtiene la familia {x(t1), x(t2), ..., x(tn)}. Se considera que x(t) es una función aleatoria definida si a cada conjunto (t1, t2, ..., tn) le corresponde una variable n-dimensional {x(t1), x(t2), ..., x(tn)} con distribución de probabilidades conocida y función de distribución consistente. En el caso de que la distribución de x(t) dependa de x(t1), la función aleatoria constituye un proceso de Markov simple; si depende de x(t1) y de x(t2) es un proceso de Markov doble, etc.

Puede considerarse ahora que un experimento tiene un universo finito de resultados E1, Ei, ..., Ej, ..., Em, a los que se denomina estados. En un proceso de Markov simple se representa con Pi0 a la probabilidad de que se presente Ei en la primera prueba, y con Pij a la probabilidad de que se presente Ei en una prueba cuando se ha presentado Ej en la prueba anterior.

Estas probabilidades definen una cadena de Markov que si se dispone en forma matricial se denomina matriz estocástica. Evidentemente la suma de los elementos de cada fila es la unidad; si la suma de elementos de cada columna es también igual a la unidad la matriz es doblemente estocástica.

Los procesos de Markov tienen particular importancia en la teoría de las colas (estudios de optimización de un servicio según las diferentes formas y modos de sumarse los sujetos a la demanda del mismo) y el estudio de sistemas ergódicos, es decir, aquellos en que cada secuencia o muestra finita tiene la misma probabilidad, y es por tanto igualmente representativa del todo.

Inicio   Buscador   Índice alfabético   Recomendar sitio   Añadir a favoritos