sábado, noviembre 23, 2024
Inicioscience¿Cómo descifra el cerebro el habla en habitaciones ruidosas?

¿Cómo descifra el cerebro el habla en habitaciones ruidosas?

resumen: Los investigadores han descubierto que el cerebro decodifica el habla de manera diferente en entornos ruidosos según el volumen del habla y nuestro enfoque en él.

Su estudio, que hizo uso de grabaciones neuronales y modelos de computadora, muestra que cuando estás luchando por seguir una conversación en medio de sonidos más fuertes, nuestro cerebro codifica claramente la información de audio cuando el sonido se escucha fácilmente. Esto puede ser fundamental para mejorar los audífonos que aíslan el habla presente.

Esta investigación podría conducir a mejoras significativas en los sistemas de decodificación de la atención auditiva, especialmente para los audífonos controlados por el cerebro.

Hechos clave:

  1. El estudio reveló que nuestro cerebro codifica la información de audio de manera diferente en situaciones ruidosas, según el volumen del habla en el que nos enfocamos y nuestro nivel de atención.
  2. Los investigadores utilizaron grabaciones neuronales para generar modelos predictivos de la actividad cerebral, mostrando que la información de audio “vislumbrada” y “disfrazada” se codifica por separado en nuestro cerebro.
  3. Este descubrimiento podría dar lugar a importantes avances en la tecnología de audífonos, específicamente en la mejora de los sistemas de decodificación de atención auditiva para audífonos controlados por el cerebro.

fuente: Más

Investigadores dirigidos por el Dr.

Publicado el 6 de junio en Open Access Journal Biología MÁSEl estudio utiliza una combinación de grabaciones neuronales y modelos informáticos para mostrar que cuando seguimos el habla ahogada por sonidos más fuertes, la información vocal se codifica de manera diferente que en la situación opuesta.

Los hallazgos podrían ayudar a mejorar los audífonos que funcionan aislando el habla actual.

READ  Variantes de coronavirus ven llamadas a terceras inyecciones

Concentrarse en el habla en una habitación llena de gente puede ser difícil, especialmente cuando otros sonidos son más fuertes. Sin embargo, amplificar todos los sonidos por igual hace poco para mejorar la capacidad de aislar estos sonidos difíciles de escuchar, y los audífonos que solo intentan amplificar el habla controlada siguen siendo demasiado inexactos para un uso práctico.

Crédito: Noticias de neurociencia

Para comprender mejor cómo se procesa el habla en estas situaciones, los investigadores de la Universidad de Columbia registraron la actividad neuronal de los electrodos implantados en los cerebros de las personas con epilepsia mientras se sometían a una cirugía cerebral. Se pidió a los pacientes que prestaran atención a una voz, que a veces era más fuerte que otra (“píos”) y otras veces más baja (“disfrazada”).

Los investigadores utilizaron las grabaciones neuronales para generar modelos predictivos de la actividad cerebral. Los modelos mostraron que la información fonológica del habla ‘brillante’ estaba codificada tanto en la corteza auditiva primaria como en la secundaria del cerebro, y que la codificación del habla asociada mejoraba en la neocorteza secundaria.

Por el contrario, la información de audio del habla “disfrazada” solo se codificaba si era el audio visual. Finalmente, la codificación del habla ocurrió más tarde para el habla “disfrazada” que para el habla “aduladora”. Debido a que la información de audio ‘vislumbrada’ y ‘disfrazada’ parece estar codificada por separado, centrarse en decodificar solo la parte ‘disfrazada’ del habla que la acompaña podría conducir a mejores sistemas de decodificación de atención auditiva para audífonos controlados por el cerebro.

Vinay Raghavan, autor principal del estudio, dice: “Cuando escuchas a alguien en un lugar ruidoso, tu cerebro recupera lo que perdió cuando el ruido de fondo era demasiado alto. Tu cerebro también puede captar partes del discurso en las que no te concentras. encendido, pero solo cuando la persona a la que estás escuchando está tranquila en comparación”. .

READ  El Very Large Telescope fotografió el exoplaneta más ligero jamás visto

Sobre esta investigación Noticias de Neurociencia Auditiva

autor: nima masgarani
fuente: Más
comunicación: Gracia Masgarani – Más
imagen: Imagen acreditada a Neuroscience News

Búsqueda original: acceso abierto.
Codificación neuronal distintiva para un discurso brillante y persuasivo en situaciones de múltiples hablantesEscrito por Nima Masgarani et al. Biología MÁS


un resumen

Codificación neuronal distintiva para un discurso brillante y persuasivo en situaciones de múltiples hablantes

Los seres humanos pueden escuchar fácilmente a un solo orador en un entorno de varios caracteres y seguir captando fragmentos de voz en segundo plano; Sin embargo, no está claro cómo percibimos el discurso persuasivo y en qué medida se procesa el discurso no dirigido.

Algunos modelos sugieren que la percepción se puede lograr a través de píos, que son regiones de tiempo espectrales donde el hablante tiene más energía que el fondo. Sin embargo, otros modelos requieren la restauración de regiones enmascaradas.

Para dilucidar este problema, grabamos directamente desde la corteza auditiva (CA) primaria y no primaria en pacientes neuroquirúrgicos mientras atendíamos a un solo orador en el habla de varios oradores y entrenamos modelos de función de respuesta temporal para predecir la actividad neuronal de alta gama a partir de características de estímulo brillantes y enmascarantes. .

Descubrimos que el habla brillante se codifica al nivel de las características vocales de los hablantes objetivo y no objetivo, con una codificación mejorada del habla objetivo en AC no central. Por el contrario, se encontró que solo las características vocales enmascaradas estaban codificadas para el objetivo, con un mayor tiempo de respuesta y una organización anatómica distinta en comparación con las características vocales contundentes.

READ  Nuevas bacterias del tamaño y la forma de las pestañas casi registran el tamaño de las pestañas

Estos hallazgos apuntan a mecanismos separados de codificación del habla oculta y sin señales y proporcionan evidencia neural para el modelo de percepción del habla similar a una señal.

Adelaida Cabello
Adelaida Cabello
"Amante de los viajes. Pionero de Twitter. Ávido gurú de la televisión. Aficionado a Internet galardonado".
RELATED ARTICLES

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Most Popular

Recent Comments