Actualizado 17/12/2013 20:57

La comprensión humana del lenguaje también depende de la visión

Ciego, Invidente
EUROPA PRESS


MADRID, 5 Sep. (EUROPA PRESS) -

Bioingenieros de la Universidad de Utah en Salt Lake City (Estados Unidos) han descubierto que la comprensión humana del lenguaje puede depender de la visión en mayor medida de los que se pensaba, de forma que en las condiciones adecuadas, lo que se ve puede anular lo que se oye. Estos hallazgos sugieren que audífonos artificiales y software de reconocimiento de voz podrían beneficiarse de una cámara, no sólo de un micrófono.

"Por primera vez, hemos sido capaces de enlazar la señal auditiva en el cerebro a lo que una persona dijo que escuchó cuando en realidad escuchó algo diferente. Encontramos que la visión influye en la parte auditiva del cerebro para cambiar su percepción de la realidad y no se puede apagar la ilusión", explica el primer autor del estudio, Elliot Smith, graduado en Bioingeniería y Neurociencia en la Universidad de Utah.

El cerebro tiene en cuenta tanto la vista como el sonido cuando se procesa el habla, pero, si los dos difieren un poco, las señales visuales dominan sobre el sonido. Este fenómeno se denomina el efecto McGurk por el psicólogo cognitivo escocés Harry McGurk, que fue pionero en estudiar la relación entre la audición y la visión en la percepción del habla en la década de 1970, un efecto que se ha observado desde hace décadas pero cuyo origen ha sido difícil de alcanzar.

En el nuevo estudio, publicado este miércoles en la revista 'Plos One', el equipo de la Universidad de Utah identificó la fuente del efecto McGurk mediante el registro y el análisis de señales cerebrales en la corteza temporal, la región del cerebro que normalmente procesa el sonido.

En colaboración con el bioingeniero Bradley Greger y el neurocirujano Paul House, de la Universidad de Utah, Smith registró señales eléctricas de las superficies cerebrales de cuatro adultos gravemente epilépticos (dos hombres y dos mujeres) de Utah y Idaho. House colocó tres electrodos del tamaño de un botón a la izquierda, derecha o ambos hemisferios del cerebro de cada sujeto, dependiendo de donde se pensaba que se originaban las convulsiones de cada paciente, todos ellos voluntarios con epilepsia severa que fueron sometidos a cirugía para tratar la epilepsia.

Los autores pidieron a estos cuatro sujetos que vieran y escucharan vídeos centrados en la boca de una persona cuando pronuncia las sílabas "ba", "va", "ga" y "tha". Dependiendo de cuál de los tres vídeos diferentes observaban, los pacientes tenían una de tres posibles experiencias: el movimiento de la boca coincidía con el sonido; el movimiento de la boca no se corresponde con el sonido correspondiente, como en una película mal doblada, y el movimiento de la boca sólo era ligeramente no coincidente con el sonido correspondiente, que demuestra el efecto McGurk.

Al medir las señales eléctricas en el cerebro, mientras que los participantes veían cada vídeo, Smith y Greger podrían determinar si utilizaban señales cerebrales auditivas o visuales para identificar la sílaba en cada vídeo.

Cuando la sílaba de la boca se corresponde con el sonido o no coincide en absoluto, la actividad cerebral aumenta en correlación con el sonido que se está observando. Sin embargo, cuando se ve el vídeo con el efecto McGurk, el patrón de actividad cambia a parecerse a lo que la persona vio y no lo que oyó. Los análisis estadísticos confirmaron el efecto en todos los sujetos de prueba.

"Hemos mostrado que señales neuronales en el cerebro que deben ser impulsadas por el sonido están siendo anuladas por las señales visuales que dicen: oíd esto", subraya Greger. "Su cerebro está ignorando esencialmente la física del sonido en el oído y está siguiendo lo que pasa a través de su visión", agrega el principal investigador del estudio, profesor asistente de Bioingeniería en la Universidad de Utah, y actualmente miembro de Universidad Estatal de Arizona.

Los nuevos hallazgos podrían ayudar a los científicos a entender qué impulsa el procesamiento del lenguaje en los seres humanos, especialmente en el desarrollo del cerebro infantil al tratar de conectar los sonidos y los movimientos de labios a la hora de aprender el lenguaje. También podrían servir para resolver cómo el procesamiento del lenguaje va mal cuando las entradas visuales y auditivas no están integradas correctamente, como enel caso de la dislexia, concluye Greger.