4.1. Un cadena de markov es absorbente si tiene por lo menos un estado absorbente.
4.2. Es posible ir desde cada estado no absorbente hasta por lo menos un estado absorbente
4.3. Es un estado absorbente que tiene una probabilidad de ser abandonado igual a cero
5. Estado estable.
5.1. El estado estable es la distribución de probabilidades que en cierto punto quedara fija para el vector P y no presentara cambios en periodos posteriores.
6. son modelos probabilísticos que permiten predecir
7. Es la probabilidad de un sistema de variables aleatorias
7.1. que evolucionan dependiendo de la variable tiempo