Aspectos básicos en la Inferencia Estadística para Cadenas de Markov en tiempo discreto

Autores/as

  • Dr. Henry Pantí Universidad Autónoma de Yucatán https://orcid.org/0000-0003-2416-5240
  • Dr. José Luis Batún Universidad Autónoma de Yucatán
  • M.C.M. Rubén Cool Universidad Autónoma de Yucatán
  • M.C. Diódora Kantún Chim Universidad Autónoma de Yucatán
  • M.C.M. Ernesto Guerrero Lara Universidad Autónoma de Yucatán

DOI:

https://doi.org/10.36788/sah.v6i1.131

Palabras clave:

Cadenas de Markov, Estados Absorbentes, Estimación por Máxima Verosimilitud, Intervalos de Confianza, Razón de Verosimilitud

Resumen

El presente artículo tiene como objetivo presentar un panorama general sobre la inferencia estadística para las cadenas de Markov en tiempo discreto, utilizando artículos y libros publicados sobre estos modelos. Los temas que en este artículo se abordan incluyen: estimación puntual y por intervalos para las probabilidades de transición y una prueba de hipótesis para el supuesto de homogeneidad en una cadena de Markov. A lo largo del artículo se presentan ejemplos tomados  de la literatura,  en los que se aplica el modelo de cadenas de Markov para resolver  problemas de interés, y que sirven de ilustración para propósitos de este trabajo. Este trabajo espera brindar apoyo a personas interesadas en un primer contacto con las cadenas de Markov y que sirva de guía en su busqueda de información sobre el tema.

Descargas

Los datos de descargas todavía no están disponibles.

Citas

T. Anderson and L. Goodman, “Statistical inference about Markov chains,” Annals of Mathematical Statistic, vol. 28, pp. 89–110, 1957. DOI: https://doi.org/10.1214/aoms/1177707039

P. Avery and D. Henderson, “Fitting Markov chain models to discrete state series such as DNA sequences,” Journal of the Royal Statistical Society. Series C (Applied Statistics), vol. 48, pp. 53–61, 1999. DOI: https://doi.org/10.1111/1467-9876.00139

I. Basawa and B. P. Rao, Statistical Inference for Stochastic Process. London: Academic Press Inc., 1980. DOI: https://doi.org/10.1016/B978-0-12-080250-0.50019-1

J. Batún, R. Cool, and H. Pantí, “Analysis of the academic progress of higher education students by means of an Absorbing Markov Chain,” Autonomous University of Yucatan, vol. (preprint), 2022.

J. Besag and D. Mondal, “Exact goodness-of-fit tests for Markov chains,” Biometrics, vol. 69, pp. 488–496, 2013. DOI: https://doi.org/10.1111/biom.12009

A. Bolivar, C. Notario, and A. Perez, “Modelos de Markov para la trayectoria académica de estudiantes de la UJAT,” Miscelánea Matemática, vol. 62, pp. 29–43, 2016.

G. Casella, Statiscal Inference. United States of America: Duxbury Thompson Learning, 2002.

B. Craig and P. Sendi, “Estimation of the transition matrix of a discrete-time Markov chain,” Health Economics, vol. 11, pp. 33–42, 2002. DOI: https://doi.org/10.1002/hec.654

A. Davidson, Statiscal Models. New York, United States of America: Cambridge University Press, 2003.

S. Fitzpatrick and A. Scott, “Quick simultaneous confidence intervals for multinomial proportions,” Journal of the American Statistical Association, vol. 82, pp. 875–878, 1987. DOI: https://doi.org/10.1080/01621459.1987.10478511

R. Gold, “Tests auxiliary to chi square tests in a Markov chain,” The Annals of Mathematical Statistics, vol. 34, pp. 56–74, 1963. DOI: https://doi.org/10.1214/aoms/1177704242

L. Goodman, “On simultaneous confidence intervals for multinomial proportions,” Technometrics, vol. 7, pp. 247–254, 1965. DOI: https://doi.org/10.1080/00401706.1965.10490252

P. Gupta, C. Fillmore, G. Jiang, S. Shapira, K. Tao, C. Kupperwasser, and E. Lander, “Stochastic state transitions give rise to phenotypic equilibrium in populations of cancer cells,” Cells, vol. 146, no. 4, pp. 633–544, 2011. DOI: https://doi.org/10.1016/j.cell.2011.07.026

P. Guttorp, Stochastic Modeling of Scientific Data. Seattle, United States of America: Springer Science + Business Media Dordrecht, 1995. DOI: https://doi.org/10.1007/978-1-4899-4449-8

Y. Hong, G. Jian, Z. Li, L. Rui, and Q. Cheng, “Multi-state Markov model in outcome of mild cognitive impairments among community elderly residents in Mainland China,” International Psychogeriatrics, vol. 18, no. 5, 2013.

E. Mohammedelameen, K. Abdellateef, and H. Mubarak, “Using Markov chain to predict by the natural progression of diabetic nephropathy at diabetes and endocrinology hospital,” IJCSNS International Journal of Computer Science and Network Security, vol. 19, pp. 157–157, 2019.

M. Nazaria, S. Nazarib, F. Zayeri, M. Gholampour, and A. Baghbane, “Estimating transition probability of different states of type 2 diabetes and its associated factors using Markov model,” Primary Care Diabetes, vol. 12, no. 3, pp. 245–253, 2018. DOI: https://doi.org/10.1016/j.pcd.2018.01.004

M. Pinsky and S. Karlin, An introduction to Stochastic Modeling. United States of America: Elsevier, 2010. DOI: https://doi.org/10.1016/B978-0-12-381416-6.00001-0

C. Quesenberry and D. Hurst, “Large-sample simultaneous confidence intervals for multinomial proportions,” Primary Care Diabetes, vol. 6, pp. 191–195, 1964. DOI: https://doi.org/10.1080/00401706.1964.10490163

W. Suryaningrat, D. Munandar, A. Maryati, A. S. Abdullah, and B. N. Ruchjana, “Posted prediction in social media base on markov chain model: twitter dataset with covid-19 trends,” Journal of Physics: Conference Series, vol. 1722, no. 1, p. 012001, jan 2021. DOI: https://doi.org/10.1088/1742-6596/1722/1/012001

H. Wang, “Exact confidence coefficients of simultaneous confidence intervals for multinomial proportions,” Journal of Multivariate Analysis, vol. 99, no. 5, pp. 896–911, 2008. DOI: https://doi.org/10.1016/j.jmva.2007.05.003

Descargas

Publicado

2022-09-27 — Actualizado el 2022-09-27

Versiones

Cómo citar

[1]
H. Pantí-Trejo, J. Batún Cutz, R. Cool Padilla, D. Kantún Chim, y E. Guerrero Lara, «Aspectos básicos en la Inferencia Estadística para Cadenas de Markov en tiempo discreto», sahuarus, vol. 6, n.º 1, pp. 30–49, sep. 2022.

Número

Sección

Artículos

Métrica

Artículos similares

1 2 3 > >> 

También puede Iniciar una búsqueda de similitud avanzada para este artículo.