How literacy shapes orthographic processing

  1. FERNANDEZ LOPEZ, MARIA
Dirigida por:
  1. Manuel Perea Lara Director/a
  2. Marta Vergara Martínez Codirector/a
  3. Ana Marcet Codirector/a

Universidad de defensa: Universitat de València

Fecha de defensa: 21 de junio de 2022

Tribunal:
  1. Bernhard Angele Presidente/a
  2. Ana Cristina García Blanco Secretario/a
  3. José Antonio Hinojosa Poveda Vocal

Tipo: Tesis

Teseo: 732213 DIALNET lock_openTESEO editor

Resumen

La lectura es una habilidad indispensable en nuestra sociedad. Sin ella, no podríamos acceder a la historia, o aprender de nuestros avances y retrocesos. Resulta casi milagroso que el Homo sapiens hiciera unas marcas en una piedra para aumentar drásticamente su capacidad de memoria. Estas marcas en la piedra, que serían lo que ahora llamamos letras, se convirtieron en herramientas. Herramientas que alteran la maquinaria cerebral para conectar las formas visuales con un significado, es decir, para sustentar la lectura. Hoy en día, la lectura es parte de nuestra vida cotidiana hasta tal punto que no nos damos cuenta de su complejidad. Cuando leemos, nuestros ojos saltan de palabra a palabra, fijándose en cada una de ellas (normalmente) solo una vez. Es en este momento cuando sucede uno de los pasos esenciales de la lectura eficiente: el reconocimiento visual de la palabra. Cuando leemos una palabra, se producen una serie de complejos procesos cognitivos que implican operaciones en diferentes niveles de procesamiento (perceptivo, ortográfico, fonológico, morfológico, sintáctico y semántico) durante unos cientos de milisegundos. De manera importante, si hay un aspecto del reconocimiento visual de palabras sobre el que existe un consenso general entre las personas que investigan la lectura, ese es el papel crucial de las letras. Por lo general, se asume que el reconocimiento de una palabra escrita está mediado por el procesamiento de las letras que la componen, al menos en las lenguas que utilizan la ortografía alfabética. La presente tesis aspira a ser una contribución más al corpus de investigación de estas "células" de la lectura. En concreto, el objetivo general es examinar los procesos que se sitúan en el puente entre las etapas de procesamiento visual, de bajo nivel, y el procesamiento, de alto nivel, de las palabras: el procesamiento ortográfico. El procesamiento ortográfico es la codificación de la información sobre las identidades y la posición de las letras; aquello que nos permite diferenciar PERRO de CERRO o CONEJO de ENCOJO. Para avanzar en nuestra comprensión de la lectura, esta tesis se centra en cómo la alfabetización moldea la cognición para dar lugar a estos procesos cruciales del reconocimiento visual de palabras. Para ello, la tesis se estructura en tres secciones: (i) la emergencia del procesamiento ortográfico, (ii) la resiliencia de los detectores de letras, y (iii) las contribuciones metodológicas a la investigación del reconocimiento visual de palabras. El bloque sobre la emergencia del procesamiento ortográfico comprende tres estudios que examinan el desarrollo del procesamiento ortográfico con la alfabetización. En el bloque sobre la resiliencia de los detectores de letras, presento tres estudios que examinaron cómo la distorsión visual afecta al procesamiento ortográfico. Para ello, nos centramos en la distorsión visual en una única dimensión: la rotación de letras. Finalmente, la última sección incluye una contribución metodológica a la investigación sobre el reconocimiento de palabras. En concreto, comprende dos estudios realizados para entender mejor los fundamentos cognitivos del masked priming, la herramienta metodológica de referencia para estudiar los primeros momentos del reconocimiento visual de palabras. La aparición del procesamiento ortográfico Aprender a leer implica un ajuste de nuestro cerebro de primate. Cuando aprendemos a leer, nuestro cerebro recicla algunas regiones del córtex visual para asumir una nueva tarea, la del reconocimiento de palabras. Uno de los hitos centrales de este proceso es la aparición del procesamiento ortográfico. El aprendizaje de la codificación de las identidades de las letras, entendida como el mapeo de la entrada visual a las representaciones abstractas de las letras (a A a a a comparten la misma representación abstracta, independientemente de su forma escrita) ocurriría en los dos primeros años de la adquisición de la lectura (Jackson y Coltheart, 2001; Gómez y Perea, 2020). Sin embargo, aún no se entiende claramente cuándo y cómo surge la codificación de la posición de las letras. Determinar los factores que influyen en la aparición y el desarrollo del procesamiento ortográfico es fundamental, ya que nos permite identificar a los niños y niñas que necesitan una intervención previa a la alfabetización y, en consecuencia, minimizar posibles dificultades de lectura. Con este propósito, realizamos el estudio titulado ¿Qué factores modulan la codificación de la posición de las letras en los niños prealfabetizados? (Which Factors Modulate Letter Position Coding in Pre-literate Children? Fernández-López et al., 2021, Frontiers in Psychology). Nuestro objetivo fue indagar en los precursores del mecanismo responsable de la codificación del orden de las letras, aquel que nos permite diferenciar CONEJO de ENCOGER. Sabemos que los mejores lectores codifican el orden de las letras con mayor precisión que los peores lectores (véase Gómez et al., 2021; Pagán et al., 2021), por lo tanto, es crucial arrojar luz sobre las raíces de ese procesamiento. Para ello, examinamos los posibles vínculos entre la codificación del orden de las letras en infantes pre-alfabetizados con los procesos cognitivos básicos relacionados con la adquisición temprana de la lectura (atención, sensación, percepción y memoria), evaluados con la Batería de Inicio a la Lectura (Sellés et al., 2016). Para medir la codificación del orden, se llevó a cabo una tarea de emparejamiento igual-diferente, en la que los niños y niñas tuvieron que decidir si dos pares de letras eran iguales (TZ-TZ) o diferentes (con letras traspuestas: TZ-ZT) (véase Perea et al., 2016). Los resultados de los análisis correlacionales mostraron que los niños y niñas pre-alfabetizados que mejor diferenciaban los pares de letras transpuestas (TZ-ZT) de los pares de letras idénticas (TZ-TZ) eran los que tenían puntuaciones más altas en las pruebas de procesos cognitivos básicos. Así pues, las habilidades cognitivas básicas se asocian con la capacidad de codificar el orden serial en las cadenas de letras. La investigación con personas lectoras expertas ha demostrado que, una vez que se domina la lectura, la categoría de las letras evoluciona de ser un mero objeto visual a gozar de un estatus específico. Por ejemplo, cuando se presenta una cadena de símbolos (£§?%@) las personas fijan su atención en el centro de la cadena. Sin embargo, cuando se presenta una cadena de letras (FGJGM), se fijan también en las letras exteriores, especialmente en la primera letra (Tydgat y Grainger, 2009). Este fenómeno se debe al procesamiento específico de la localización, responsable de la codificación de la posición de las letras. Este procesamiento nace de una adaptación de los mecanismos de la codificación visual de objetos a las particularidades del procesamiento de palabras. Además, la codificación del orden de las letras se vuelve más flexible, lo que conduce al procesamiento invariante de la localización; FGJM se confunde fácilmente con el FJGM, del mismo modo, cuenro se confunde fácilmente con cuerno y el cholocate con el chocolate. Este fenómeno se suele captar cuando se utiliza una tarea de emparejamiento igual-diferente que consiste en decidir si dos pares de estímulos son iguales (FGJM-FGJM) o no (FGJM-FPCM). La evidencia muestra que las respuestas "no" a un par con letras transpuestas (FGJM-FJGM) son más lentas y más propensas a errores que las respuestas “no” a un par con letras remplazadas (FGJM-FPCM). Este efecto, conocido como efecto de transposición (TL), también se produce con cadenas compuestas por símbolos, números o letras desconocidas (Duñabeitia et al., 2012; Massol et al., 2013). No obstante, lo curioso es que es sustancialmente mayor para las cadenas de letras conocidas. La disociación entre letras y otros objetos visuales se explica en la existencia de un mecanismo ortográfico específico, que se utiliza para codificar el orden invariante de las letras en la palabra, y opera complementando la incertidumbre perceptiva sobre qué posición ocupa un objeto visual en una serie (Grainger, 2018; véase también Marcet et al., 2019; Massol et al., 2013). De manera importante, se ha postulado que este mecanismo ortográfico emerge rápidamente en los primeros estadios de adquisición de la alfabetización (Dandurand et al., 2010; Duñabeitia et al., 2014, 2015). Sin embargo, los datos empíricos sobre la aparición del procesamiento invariante de localización son muy escasos y no concluyentes. La razón es que no es sencillo comparar el rendimiento de los niños y niñas antes y después de adquirir la alfabetización, dado que hay mucha variabilidad entre grupos, lo que conduce a problemas de interpretación (véase Perea et al., 2016). Una opción para superar esta limitación es diseñar un análogo del aprendizaje de la lectura con personas adultas aprendiendo un nuevo alfabeto. Esta fue la estrategia seguida en el segundo y tercer estudio. En el segundo estudio, ¿Surge rápidamente el procesamiento ortográfico tras el aprendizaje de un nuevo alfabeto? (Does Orthographic Processing Emerge Rapidly After Learning a New Script?, Fernández-López et al., 2021, British Journal of Pychology), comprobamos si el procesamiento ortográfico, examinado a través del procesamiento invariante de localización y el procesamiento específico de localización, emergía rápidamente con la alfabetización. Para ello, diseñamos un estudio en el que se enseñó a personas adultas a leer y escribir en un alfabeto artificial durante seis sesiones. Además, se familiarizaron visualmente con un alfabeto artificial diferente, que se utilizó como control. En lo que respecta al procesamiento de localización invariante, realizamos tareas de emparejamiento igual-diferente en las que los ensayos diferentes estaban compuestos por pares con letras traspuestas (FGJM-FJGM) y pares con letras remplazadas (FGJM-FPCM). Las tareas se realizaron con los alfabetos entrenado y control, antes y después de aprender a leer. Los resultados mostraron efectos de trasposición similares en los alfabetos entrenado y control en ambas fases, pre- y post-aprendizaje. De ello concluimos que el aprendizaje de la lectura y la escritura en un nuevo alfabeto no origina la rápida aparición del procesamiento invariante de la localización. Sin embargo, las respuestas a los pares iguales (FGJM-FGJM) fueron más rápidas y más precisas en la fase de post-entrenamiento para el alfabeto entrenado, pero no para el alfabeto control. Por lo tanto, parece que la alfabetización sí indujo una especialización rudimentaria para las letras, que facilitó la identificación de los pares de letras iguales. Para comprobar la aparición del procesamiento específico de la localización, llevamos a cabo tareas de identificación de caracteres con los alfabetos entrenado y control antes y después de aprender a leer. En este tipo de tareas, se presenta muy brevemente una cadena de cinco caracteres (FGJGM) mientras la persona mira el centro de la cadena. La cadena se sigue de una máscara con una señal que indica una de las posiciones y dos alternativas de letras (#####; alternativas G y L). La tarea consiste en elegir, de entre las dos alternativas, la que coincida con la identidad la letra en el lugar indicado (GFGJGM). Los resultados mostraron una clara ventaja de la posición media para ambos alfabetos, patrón característico cuando se emplean símbolos, pero no letras. Por lo tanto, aprender a leer y escribir en un nuevo alfabeto tampoco facilitó a la rápida aparición del procesamiento específico de la localización. El procesamiento ortográfico necesita, probablemente, mucho más tiempo de práctica lectora para surgir. Una alternativa es que podría requerir de experiencia con estructuras ortográficas específicas. En el tercer estudio de la presente sección, Una letra es una letra y sus co-ocurrencias: Descifrando la emergencia del procesamiento invariante de localización (A letter is a letter and its co-occurrences: cracking the emergence of location-invariant processing; enviado para revisión por pares), pusimos a prueba si el procesamiento invariante de localización surgía rápidamente tras la exposición a las regularidades ortográficas—bigramas—en un alfabeto nuevo. Para ello, diseñamos un estudio con dos fases. En la fase 1 replicamos el protocolo seguido por Chetail (2017). Concretamente, las personas fueron expuestas a un flujo de palabras con letras artificiales durante unos minutos, con cuatro bigramas apareciendo con frecuencia (cada palabra contenía uno de esos cuatro bigramas en una posición específica; ABKOR, RCETN, ZXFGO, NXKHI, la negrita indica el bigrama frecuente). A continuación, se llevó a cabo una tarea en la que las personas tenían que decidir, entre dos palabras con letras artificiales, cuál habían visto con anterioridad. Los resultados mostraron que las palabras con bigramas entrenados fueron juzgadas como más parecidas a las vistas, por lo que las personas adquirieron rápidamente las nuevas regularidades ortográficas. En la fase 2, se realizó una tarea de emparejamiento igual-diferente para examinar las posibles diferencias entre pares con letras traspuestas en un bigrama frecuente (entrenado) y pares con letras traspuestas en un bigrama no frecuente (no entrenado). Los resultados mostraron que las respuestas a los pares con letras traspuestas en un bigrama frecuente eran menos precisas que las respuestas a pares con las letras traspuestas en un bigrama infrecuente. Este hallazgo sugiere que la exposición repetida a regularidades ortográficas facilitaría el desarrollo de representaciones internas de grupos de letras (bigramas), induciendo el procesamiento invariable de localización. En resumen, el objetivo de los tres estudios de esta sección fue ampliar nuestra comprensión acerca de los fundamentos del procesamiento ortográfico. Cabe destacar las siguientes premisas: (i) La preparación cognitiva para la lectura surge en una fase temprana del desarrollo, con la adaptación de los mecanismos de procesamiento de los objetos visuales. Por ello, (ii) la detección temprana de las deficiencias en el análisis visual del input es crucial para prevenir posibles dificultades lectoras. Además, hemos añadido a la literatura que (iii) el procesamiento ortográfico no emerge rápidamente cuando se aprende a leer. No obstante, como preludio, (iv) algunos procesos no especializados se ponen a punto para guiar el progreso funcional de la lectura. Por lo tanto, teniendo en cuenta todo esto, la enseñanza del aprendizaje de la lectura no debería basarse únicamente en el conocimiento de las letras y la decodificación fonológica. Los y las profesionales la enseñanza deben considerar que la lectura se construye sobre un fundamento cognitivo básico que puede entrenarse para facilitar el aprendizaje lector. Por citar algunas sugerencias: el entrenamiento en una tarea de emparejamiento igual-diferente con estímulos de letras puede ayudar a la codificación del orden de éstas; además, la mera exposición visual a las palabras ayuda a crear una capa rudimentaria de bigramas que facilitarían la posterior codificación de las palabras. La resiliencia de los detectores de letras Con la adquisición de la lectura siguiendo su curso, se construye un sistema de decodificación flexible y potente: las personas lectoras pueden acceder rápidamente a las representaciones abstractas de las letras a pesar de su formato visual (a A a a a comparten la misma representación; véase Grainger y Dufau, 2012). Sin embargo, la evidencia empírica sobre la resiliencia del sistema de reconocimiento de palabras a la distorsión perceptiva es todavía escasa, probablemente porque conlleva una deformación en dimensiones diferentes. De esta manera, cualquier diferencia de procesamiento entre una palabra deformada y una en el formato prístino que solemos encontrar al leer podría deberse a múltiples factores (véase Vergara-Martínez et al., 2021). En esta sección, presento tres estudios que examinaron la tolerancia del sistema de reconocimiento de palabras a la distorsión visual en una sola dimensión: las rotaciones de las letras. Un valor añadido de estudiar la rotación es que dos de los principales modelos de reconocimiento visual de palabras hacen predicciones explícitas sobre cómo las rotaciones de las letras afectan a la lectura de palabras. El modelo SERIOL de reconocimiento de palabras (Whitney, 2001, 2002) asume que "los niveles de entrada a las unidades de letras se reducen para los estímulos rotados" (p. 119, Whitney, 2002), aumentando gradualmente el tiempo necesario para codificar una cadena de letras. En cambio, el modelo de los detectores de combinación local (LCD; Dehaene et al., 2005) ofrece una explicación de todo-o-nada sobre cómo la rotación de las letras afecta al procesamiento de las mismas. Postula un límite de 40°-45°, más allá del cual los detectores de letras no serían capaces de hacer frente a las rotaciones de manera eficiente. No obstante, habría poco coste para las rotaciones de letras por debajo de ese límite. La premisa de un coste de rotación de las letras ha sido puesta en duda recientemente por una serie de estudios que han demostrado que las lectoras pueden hacer frente a rotaciones de hasta 180° desde el acceso inicial a las representaciones ortográficas. Por ejemplo, con la técnica de priming enmascarado, Perea et al. (2018) encontraron efectos de identidad considerables para palabras rotadas 90°, comparables a los obtenidos con estímulos canónicos (0°). Este patrón de resultados se extendió a 180° en un estudio realizado por Yang y Lupker (2019). Sin embargo, se puede argumentar que, como ambos, prime y estímulo-test, estaban rotados, las personas participantes podrían haber desarrollado estrategias conscientes, como inclinar la cabeza, para hacer frente a las rotaciones. Por lo tanto, una estrategia adecuada sería presentar los estímulos objetivo en la orientación canónica, precedidas por los primes rotados. Esta fue la estrategia seguida por Benyhe y Csibri (2021), que encontraron un considerable efecto de priming enmascarado para ángulos de hasta 90°. Cabe destacar en este punto que, cuando una palabra está completamente rotada, las personas pueden rotar mentalmente el estímulo como un todo, con un solo movimiento de rotación mental. En cambio, si rotamos las letras individuales dentro de las palabras, los individuos necesitarían más de un movimiento de rotación. Así, esta manipulación nos permite examinar estrictamente las predicciones de los modelos. Por esta razón, en los tres estudios de esta sección, rotamos las palabras letra por letra. Nuestro objetivo principal era examinar la resistencia (y resiliencia) de los detectores de letras a diferentes ángulos de rotación y, de esta manera, probar las predicciones del modelo SERIOL (Whitney, 2001, 2002) y del modelo LCD (Dehaene et al., 2005). En el primer estudio, ¿Cuán resiliente es la lectura a las rotaciones de las letras? Una investigación de previsualización parafoveal (How Resilient is Reading to Letter Rotations? A Parafoveal Preview Investigation, Fernández-López et al., 2021, Journal of Experimental Psychology: Learning, Memory, and Cognition), pusimos a prueba la resiliencia de los detectores de letras a las rotaciones durante la lectura normal para examinar las predicciones de los modelos LCD y SERIOL. Llevamos a cabo un experimento de lectura con frases escritas en letras mayúsculas utilizando el paradigma de cambio de límites contingente a la mirada de Rayner (1975), en el que examinamos si las pre-visualizaciones parafoveales de identidad eran más efectivas que las previsualizaciones parafoveales no-relacionadas. Las letras de las previsualizaciones estaban rotadas 15°, 30°, 45° o 60°. Es importante destacar que solo las previsualizaciones parafoveales estaban rotadas. El resto del texto, incluido las palabras-test, se presentó con las letras en su orientación canónica vertical. Encontramos un patrón de resultados notablemente similar para todas las medidas de fijación que evaluamos: la duración de la primera fijación, la duración de la fijación única y la duración de la mirada. La ventaja de la condición de identidad fue mayor cuando las letras de la previsualización se rotaron 15°, y fue numéricamente menor, pero aún robusta, a 30°. Para las rotaciones de 45°, la ventaja de la condición de identidad fue sólo marginal. Por último, para las rotaciones de 60°, no hubo indicios de beneficio de la condición de identidad. Estos resultados sugieren que, aunque los detectores de letras parecen estar gravemente afectados por ángulos de rotación de 45° o más en los primeros momentos del procesamiento, como postula el modelo LCD, también hubo un coste gradual para las rotaciones de letras por debajo de ese límite, como postula el modelo SERIOL. En el segundo estudio, Sobre el curso temporal de la resiliencia de los detectores de letras a las rotaciones: Una investigación con priming enmascarado y potenciales relacionados con eventos (On the time course of the resilience of letter detectors to rotations: A masked priming ERP investigation; enviado para revisión por pares) examinamos el curso temporal del efecto de la rotación de las letras en un paradigma de priming enmascarado de identidad. Nos centramos en probar la predicción del modelo LCD: "los detectores de letras se ven dañados por la rotación (> 40°)" (Dehaene et al., 2005, p. 340). Mientras el estímulo-test se presentó en la orientación canónica, las letras de los primes se presentaron en ángulos de 0°, 45° ó 90°. Los datos conductuales mostraron que el priming de identidad estaba modulado por la rotación de las letras: era más fuerte para los primes de 0°, disminuía para los de 45° y era insignificante para los de 90°. Los datos de los potenciales relacionados con eventos (PREs) nos permitieron examinar en detalle el curso temporal del procesamiento de las palabras con letras rotadas. Las comparaciones de amplitudes mostraron que el efecto de la relación entre estímulos prime y test surgió a los 150 ms para la orientación estándar del prime (0°). De hecho, el efecto de identidad para los primes de 0° siguió el curso natural (es decir, comenzó alrededor de 100-150 ms y se fortaleció en las siguientes etapas de procesamiento). Por el contrario, la aparición del efecto para los primes de 45° se retrasó, y su tamaño también se redujo. Surgió alrededor de 170-300 ms y fue más débil que para los estímulos de 0°. En el caso de los primes de 90°, no hubo efecto de identidad en ningún componente. Este patrón sugiere que las rotaciones de las letras en torno a 45° impiden la integración automática de la representación ortográfica de los primes con los estímulos objetivo, proporcionando así pruebas que apoyan las predicciones del modelo LCD de reconocimiento de palabras. En el tercer estudio, Rotaciones de letras: A través de la lupa y lo que la evidencia encontró allí (Letter rotations: Through the Magnifying Glass and What Evidence Found There; enviado para revisión por pares), llevamos a cabo tres experimentos que examinaron el coste de la rotación de las letras en el acceso al léxico. De esta manera, pusimos a prueba las predicciones de los modelos LCD y SERIOL sobre la resiliencia de los detectores de letras a ángulos de rotación relativamente moderados. En el Experimento 1, realizamos una tarea de decisión léxica con estímulos de letras rotadas 0°, 22.5°, 45° y 67,5°. En los Experimentos 2 y 3, realizamos una tarea de categorización semántica con letras rotadas 0°, 22.5°, 45° y 67,5° (Experimento 2) y 22.5°, 30°, 37.5° y 45° (Experimento 3). En todos los experimentos, las palabras podían ser de alta o baja frecuencia. Los resultados de los Experimentos 1 y 2 mostraron que, en relación con el formato canónico (0°), el coste era mínimo para las palabras de 22.5°, sustancial para las de 45° y drásticamente grande para las de 67.5°. Es importante destacar que en la tarea de decisión léxica (Experimento 1), encontramos que el efecto de la rotación de las letras era mayor para las pseudopalabras que para las palabras. Además, en el Experimento 2, descubrimos que la rotación de las letras interactuaba con la frecuencia de las palabras, pero sólo cuando las letras estaban rotadas en 67.5° (en el Experimento 1 se produjo una tendencia similar, aunque numéricamente menor). Estos hallazgos sugieren que la retroalimentación de niveles léxico-semánticos puede hacer disminuir el coste debido a la rotación de letras (véase Vergara-Martínez et al., 2021, para un argumento similar en la lectura de palabras manuscritas). Por último, en el Experimento 3 se encontró un coste gradual de lectura que aumentaba en el ángulo de 45°. En conjunto, estos resultados revelan que el coste provocado por el ángulo de rotación aumenta gradualmente en ángulos inferiores a 45°, como propone el modelo SERIOL. Los detectores de letras alcanzan un límite de resiliencia en torno a los 45° (consistente con el modelo LCD), y el coste es sustancialmente mayor en ángulos más pronunciados (67.5°). Los tres estudios de esta sección examinaron la tolerancia del sistema de reconocimiento de palabras a la distorsión visual. Para ello, se emplearon diferentes técnicas que midieron el procesamiento de las letras rotadas: técnicas conductuales, electrofisiológicas y de registro de movimientos oculares. Teniendo en cuenta los resultados de los tres estudios y construyendo una imagen global, las principales ideas que se pueden extraer se resumen de la siguiente manera: (i) el coste de la rotación de las letras se origina muy pronto, en las primeras etapas del reconocimiento de palabras. (ii) Incluso las rotaciones moderadas suponen un coste. Sin embargo, (iii) este coste se supera fácilmente, y el sistema puede manejar rotaciones de hasta 45° en los momentos iniciales del procesamiento. Además, (iv) para hacer frente a las rotaciones mayores, los individuos parecen servirse de la retroalimentación de arriba-a-abajo (facilitación léxica). En resumen (v), encontramos que el coste provocado por el ángulo de rotación aumenta suavemente en ángulos inferiores a 45°, como propone el modelo SERIOL. Los detectores de letras alcanzan un límite de resiliencia en torno a los 45° (consistente con el modelo LCD), y el coste es muy elevado en ángulos más pronunciados. Por lo tanto, (vi) la combinación de los supuestos de los modelos SERIOL y LCD otorgaría una explicación más completa de cómo el ángulo de rotación, y más generalmente, la distorsión visual, dificulta el reconocimiento de palabras. La contribución metodológica a la investigación del reconocimiento de palabras Más allá de los estudios pioneros del tema (Huey, 1908), los avances más significativos en el estudio del proceso de lectura comenzaron hacia finales de la década de 1950, coincidiendo con lo que se suele llamar la revolución cognitiva (véase Pollatsek y Treiman, 2015, para una revisión). Esta revolución rompió con el enfoque conductista y dio lugar a muchas técnicas, nuevas e ingeniosas, para estudiar los procesos de lectura e identificación de palabras, incluyendo la tarea de decisión léxica (Rubinstein et al., 1970, 1971a, 1971b) y el procedimiento de priming enmascarado (Forster & Davis, 1984). En la tarea de decisión léxica, se pide a los participantes que distingan lo más rápido posible las palabras de las no palabras. El tiempo que se tarda en determinar que una cadena de letras como perro es una palabra real proporciona un índice de lo que se tarda en contactar con la representación neural de esa palabra en nuestro diccionario interno. Si queremos enfocar las primeras etapas del procesamiento de palabras, debemos utilizar la técnica de priming enmascarado, considerada "la mayor innovación metodológica de las dos últimas décadas" (Grainger, 2008). En esta técnica, se presenta una máscara durante 500 ms, y luego se sustituye por un prime durante 50 ms, de modo que no se puede ver, que se sustituye por el estímulo-test (#####-árbol-ÁRBOL). Las personas investigadoras suelen manipular la relación prime-test, que puede estar relacionada o no (por ejemplo: #####-árbol-ÁRBOL vs. #####-panal-ÁRBOL). Las respuestas de las personas participantes suelen evaluarse con medidas conductuales, como el tiempo de reacción y la precisión, pero también con medidas más directas de la actividad cerebral, como las obtenidas con imágenes de resonancia magnética funcional (IRMf) y electroencefalograma (EEG). En particular, la combinación de la decisión léxica y el priming enmascarado ha dado lugar a muchos trabajos empíricos que investigan el procesamiento de letras y palabras. Sin embargo, la técnica requiere un examen más profundo para lograr conclusiones firmes sobre los resultados obtenidos. En esta sección, se presentan dos estudios que intentan comprender los fundamentos cognitivos del priming enmascarado y de una de sus variantes, el priming en sándwich. En el primer estudio, titulado ¿Pueden obtenerse efectos de congruencia de respuesta en el priming enmascarado de decisión léxica? (Can Response Congruency Effects Be Obtained in Masked Priming Lexical Decision? Fernández-López et al., 2019, Journal of Experimental Psychology: Learning, Memory, and Cognition), nos propusimos comprobar si las personas aplican las mismas instrucciones a los estímulos prime y test en la tarea de decisión léxica con priming enmascarado, examinando el efecto de congruencia de respuesta con primes no relacionados. El efecto de congruencia de respuesta en la decisión léxica puede definirse como la diferencia en los tiempos de respuesta entre un ensayo congruente (es decir, cuando el prime obtiene la misma respuesta que el test; por ejemplo, (árbol-CASAL: "palabra"; geuze-POLCI: "no palabra") y un ensayo incongruente (por ejemplo, geuze-CASAL: "palabra"; árbol-POLCI: "no palabra"). El examen de este efecto nos permite analizar el estado del léxico después de que el estímulo prime haya sido procesado en una etapa temprana (Loth & Davis, 2010). En concreto, examinamos si había diferencias en la influencia de un prime enmascarado no-relacionado que variaba en su estatus de semejanza a la palabra: los primes podían ser una palabra de alta frecuencia (radio), una palabra de baja frecuencia (boina), una pseudopalabra (geuze) o una cadena de consonantes (xfgtp). Para obtener una imagen completa, diseñamos tres escenarios que variaban en la dificultad de la discriminación de palabras vs. pseudopalabras: pseudopalabras ortográficamente legales emparejadas en elementos subsilábicos con las palabras-test (Experimento 1; por ejemplo, CASAL vs. POLCIR), pseudopalabras ortográficamente ilegales (Experimento 2; por ejemplo, CASAL vs. SYKDD) y pseudopalabras ortográficamente legales sin vecinos (Experimento 3; por ejemplo, CASAL vs. LEDUL). Se observó que, cuando se utilizaban pseudopalabras ortográficamente legales (POLCIR, LEDUL; Experimentos 1 y 3), los tiempos de respuesta a las palabras y a las pseudopalabras no variaban en función de la semejanza de las palabras con los primes. Esto sugiere que las personas no pudieron establecer el estatus léxico del prime enmascarado. Es decir, no pudieron determinar la probabilidad de que fuera una palabra. Sin embargo, encontramos un escenario diferente cuando se utilizaron pseudopalabras ilegales (SYKDD; Experimento 2): los tiempos de respuesta de las palabras eran más largos cuando el prime enmascarado era una cadena consonante que cuando era una pseudopalabra ortográficamente legal (xfgtp-CASAL > geuzel-CASAL). Además, las respuestas a las pseudopalabras fueron más rápidas cuando fueron precedidas por un prime compuesto por una cadena consonántica que cuando fueron precedidas por un prime ortográficamente legal (xfgtp-SKYDD < geuzel-SKYDD)—pero sólo en los cuantiles iniciales de las distribuciones de tiempo de reacción. Sin embargo, se podría argumentar que la inclusión de pseudopalabras ilegales en el Experimento 2 cambió la naturaleza de la tarea de una decisión léxica a una tarea de decisión de legalidad ortográfica. Estos resultados tienen importantes implicaciones para los principales modelos de reconocimiento de palabras (modelo del lector bayesiano; Norris y Kinoshita, 2008; modelos de activación interactiva; Rumelhart, 1981; Grainger y Jacobs, 1996; Coltheart et al., 2001; Davis, 2010). El modelo del Lector Bayesiano (BR) predice tiempos de respuesta similares para las palabras precedidas por un prime no-relacionado, independientemente de su semejanza con la palabra en la decisión léxica. En consonancia con el modelo BR, todas las condiciones de priming no-relacionado se comportaron de forma similar en los escenarios éstandar de reconocimiento de palabras. Sin embargo, cuando la discriminación palabra vs. pseudopalabra era mucho más fácil (Experimento 2; CASAL vs SYKDD), encontramos un efecto de los primes no-relacionados. (xfgtp-CASAL > geuzel-CASAL; xfgtp-SKYDD < geuzel-SKYDD). No obstante, dado que la tarea en el Experimento 2 puede considerarse una decisión de legalidad ortográfica, el modelo BR puede predecir respuestas "sí" más lentas cuando el prime está compuesto por una cadena de consonantes que cuando es un estímulo ortográficamente legal, y viceversa: Como todos los estímulos que no son palabras violan las restricciones ortográficas, todo lo que es legal debe ser una palabra. En cuanto a los modelos de activación interactiva, la falta de influencia del efecto de semejanza a la palabra del prime en el procesamiento del estímulo-test cuando se comparan palabras y pseudopalabras legales (Experimentos 1 y 3) ofrece apoyo a la hipótesis de la inhibición lateral selectiva (Davis y Lupker, 2006). Sin embargo, la naturaleza de la tarea en el Experimento 2 (es decir, la decisión de legalidad ortográfica) iría más allá del alcance de la familia de modelos de activación interactiva. Por lo tanto, nuestros hallazgos ofrecen apoyo empírico a la cuenta del lector bayesiano y a la hipótesis de inhibición lateral. Además, se ha demostrado cómo la naturaleza de la decisión requerida por la tarea modula los efectos del priming enmascarado. A pesar de las numerosas ventajas de la técnica de priming enmascarado, no es lo suficientemente sensible para detectar manipulaciones sutiles (por ejemplo, luz-luz vs. lz-luz) o examinar los procesos de reconocimiento de letras y palabras en poblaciones especiales, como las personas lectoras en desarrollo o con dislexia. La razón es que, debido a la corta asincronía entre el prime y el test, la magnitud de los efectos del priming enmascarado es pequeña, en el rango de 10-50 ms en los estudios conductuales. Para superar esta limitación, Lupker y Davis introdujeron la técnica de sándwich en 2009. Esta técnica es una variante del priming enmascarado estándar en la que la adición de un pre-prime (idéntico al estímulo-test) durante 33ms, magnifica el tamaño de los efectos. Sin embargo, los mecanismos específicos en juego, y cómo difieren de la técnica estándar, no han sido completamente dilucidados (véase Lupker & Davis, 2009 frente a Trifonova & Adelman, 2018). En el segundo estudio de esta sección, Desvelando el impulso en la técnica sándwich de priming (Unveiling the boost in the sandwich priming technique. Fernández-López et al., 2021, Quarterly Journal of Experimental Psychology), nos propusimos caracterizar la técnica del sándwich examinando si los efectos del priming simplemente se magnifican o, por el contrario, son los procesos subyacentes los que se alteran. Para ello, llevamos a cabo un experimento de decisión léxica con priming de identidad comparando directamente las técnicas de sándwich y estándar en un diseño intrasujeto. Además, para comprobar la naturaleza de las diferencias entre los métodos estándar y sándwich, examinamos el locus del impulso del efecto en la técnica sándwich y el curso temporal de los efectos para ambas técnicas mediante gráficos delta y funciones de precisión condicional. Los resultados mostraron que el locus del impulso en la técnica del sándwich era doble: respuestas más rápidas en la condición de identidad (a través de un cambio en las distribuciones de tiempos de reacción) y respuestas más lentas en la condición no-relacionada. La similitud de las distribuciones del tiempo de respuesta para los pares de identidad en las técnicas de sándwich y estándar—difieren solamente en su localización, pero no en la forma—sugiere que el tiempo extra del pre-prime no está alterando los procesos subyacentes más allá de la codificación (véase Gómez et al., 2013, para una discusión de los efectos en las distribuciones de los tiempos de reacción). Sin embargo, para los primes no-relacionados, el pre-prime en la técnica de sándwich dificultó el procesamiento de los pares no-relacionados. Este hallazgo advierte de que se debe aplicar cautela a la hora de interpretar algunos de los efectos de priming entre condiciones en la técnica de sándwich, ya que estos efectos se pueden derivar no de la facilitación en la condición relacionada, sino de la inhibición en la condición no relacionada. En resumen, los dos estudios presentados aquí ofrecen una valiosa contribución a los aspectos metodológicos de la investigación sobre el reconocimiento de palabras. De ellos se pueden extraer tres aspectos destacados: (i) a la hora de elegir la línea de base, no importa la semejanza de las palabras de los primes no relacionados (siempre que la tarea emplee pseudopalabras ortográficamente legales); (ii) la naturaleza de la decisión requerida por la tarea modula los efectos de priming enmascarado; (iii) al emplear la técnica del sándwich, se debe utilizar tanto las condiciones de identidad como las de no-relación como controles.