INNOVA Research Journal 2017, Vol 2, No. 9.1, pp. 112-123
Los períodos en el tiempo pueden encontrarse a intervalos iguales o su esparcimiento puede
depender del comportamiento general del proceso en el que se encuentra sumergido el proceso
estocástico, con la siguiente estructura: en instantes específicos del tiempo t, el proceso se
encuentra exactamente en una posición de un número finito de estados mutuamente excluyentes
y exhaustivos 0, 1, 2,… S Los períodos en el tiempo pueden encontrarse a intervalos iguales
o su esparcimiento puede depender del comportamiento general del proceso en el que se
encuentra sumergido el proceso estocástico.
De esta forma, la representación matemática del sistema físico es la de un proceso
estocástico {Xi} en donde las variables aleatorias se observan en t = 1, 2,… T y en donde cada
variable aleatoria puede tomar el valor de cualquiera de los S + 1 enteros 0, 1, 2, …S. que
caracterizan los estados del proceso.
Taha (2006). Se dice que un proceso estocástico tiene la propiedad de Markov cuando solo
del estado presente se puede obtener información del comportamiento futuro del proceso, esto es:
sus estados futuros son independientes de los estados pasados, mientras que en un proceso
estocástico sin la propiedad de Markov, dada una distribución de variables aleatorias { Xj; k = 1,
2
, 3 …} la probabilidad de que una variable aleatoria Xj esté en el estado xj es [ P (Xj) = xj | { Xk}
k ≠ j ]. Esto significa que la probabilidad de que dicha variable Xj esté en el estado xj depende de
los valores de todas las demás variables aleatorias Xk. La propiedad de Markov enuncia que, siendo
{
X (t); t≥0} un proceso estocástico continuo en el tiempo con valores de t enteros y no negativos,
se dice que dicho proceso es un proceso discreto de Markov (cumple la propiedad de Markov) sí,
para n ≥ 0 y en los instantes 0< t0 <t1<...tn <t n+1 y en los estados i0, i1, …i n+1 cumple que:
Pr (X (t n+1 ) = Pr(X (t n+1 ) = i n+1 | X(t n = in)))
Xt representa el estado de la compra en el instante de tiempo futuro t, ello define un proceso
estocástico que corresponde a la secuencia X0, X1, X2, X3,... , Xn que representa su nivel de
funcionamiento a través del tiempo. Constantemente el valor de Xt depende de los valores previos
de la secuencia. Estos cambios de estados son representados a través de las denominadas
probabilidades de transición entre estados, que, en el caso de las transiciones en una etapa,
corresponde a la probabilidad de pasar de un estado a otro desde una etapa de tiempo t hasta la
siguiente en t+1
El modelo markoviano que se presenta contempla las siguientes hipótesis:
Estima un número finito de procesos para describir el comportamiento dinámico de trabajo
de las compras (compra C, no compra NC).
Estima conocida una distribución de probabilidades al inicio del horizonte de estudio (t =
0
) que refleja a qué estado de los previamente definidos en una compra.
Estima que la transición de un proceso actual a otro en el futuro, depende solamente del
proceso actual (propiedad Markoviana).
La probabilidad de esta transición sea independiente de la etapa de tiempo considerada
(propiedad estacionaria), lo que significa que no cambie el tiempo de estudio del equipo
médico.
Revista de la Universidad Internacional del Ecuador. URL: https://www.uide.edu.ec/
117