Simulación de cadenas de MARKOV discretas
ISSN: 0213-8840
Año de publicación: 1979
Volumen: 2
Número: 3
Páginas: 69-88
Tipo: Artículo
Otras publicaciones en: Informes del Departamento de Psicología General
Resumen
Esta investigación viene a dar una solución práctica al problema de derivar valores esperados en los modelos markovianos que considran un número de estados relativamente grande, como es el caso de los que se utilizan con frecuencia en teorías sobre condicionmiento, aprendizaje verbal o memoria. Se ha creado un programa que permite simular en ordenador el comportamiento de un sistema cualquiera que a) ser susceptible de hallarse en un número de estados finito, siendo la secuencia de éstos una cadena de Markov discreta; y b) en cada paso de la cadena el sistema emite una respuesta, siendo finito el número de respuestas posibles, y siendo sus probabilidades dependientes únicamente del estado que el sistema ocupa. Como resultado de la simulación, se obtienen las medias y varianzas de una serie de variables aleatorias definidas sobre el modelo descrito, así como las frecuencias relativas para cada ensayo de una cualquiera de las respuestas. Con tal programa es posible hacer estimaciones todo lo precisas que desee de los correspondientes valores esperados, cualquiera que sea en número de respuestas y de estados considerados en el modelo.