¿Cómo distingue el cerebro la música del habla?

resumen: Un nuevo estudio revela cómo nuestro cerebro distingue entre música y habla utilizando parámetros acústicos simples. Los investigadores descubrieron que los sonidos más lentos y constantes se percibían como música, mientras que los sonidos más rápidos e irregulares se percibían como habla.

Estas ideas podrían mejorar los programas de tratamiento para trastornos del lenguaje como la afasia. La investigación proporciona una comprensión más profunda del procesamiento auditivo.

Hechos clave:

  • Parámetros simples: El cerebro utiliza parámetros acústicos básicos para distinguir entre música y habla.
  • Potencial terapéutico:Los hallazgos podrían mejorar los tratamientos para los trastornos del lenguaje como la afasia.
  • Detalles de búsqueda: El estudio incluyó a más de 300 participantes que escucharon clips de audio sintetizados.

fuente: Universidad de Nueva York

La música y el habla son los tipos de sonidos más comunes que escuchamos. Pero, ¿cómo identificamos lo que creemos que son diferencias entre los dos?

Un equipo internacional de investigadores ha mapeado este proceso a través de una serie de experimentos, lo que ha generado conocimientos que ofrecen una forma potencial de mejorar los programas terapéuticos que utilizan la música para restaurar el habla en el tratamiento de la afasia.

Los investigadores señalan que saber cómo el cerebro humano distingue entre música y habla podría beneficiar a las personas con trastornos de la audición o del lenguaje, como la afasia. Crédito: Noticias de neurociencia

Este trastorno del lenguaje afecta a más de uno de cada 300 estadounidenses cada año, incluidos Wendy Williams y Bruce Willis.

«Aunque la música y el habla son diferentes en muchos aspectos, desde el tono hasta el timbre y la estructura del sonido, nuestros resultados muestran que el sistema auditivo utiliza parámetros acústicos sorprendentemente simples para distinguir entre la música y el habla». Departamento de Psicología y autor principal del artículo que aparece en la revista Biología PLoS.

«En general, las sílabas más lentas y constantes que contienen solo ruido suenan más como música, mientras que las sílabas más rápidas e irregulares suenan más como un habla».

Los científicos miden la frecuencia de las señales en unidades de medida precisas: Hercios (Hz). Un número mayor de Hz significa una mayor cantidad de repeticiones (o ciclos) por segundo que un número menor. Por ejemplo, las personas suelen caminar a un ritmo de 1,5 a 2 pasos por segundo, es decir, 1,5-2 Hz.

READ  El fiscal general de Ucrania investiga 5.800 casos de crímenes de guerra rusos

La canción «Superstition» de Stevie Wonder de 1972 tiene un tempo de aproximadamente 1,6 Hz, mientras que la canción «Roller Girl» de Anna Karina de 1967 tiene un tempo de 2 Hz. Por el contrario, el habla suele ser dos o tres veces más rápida que el habla a 4-5 Hz.

Está bien documentado que el volumen de una canción a lo largo del tiempo (lo que se conoce como “modulación de amplitud”) es relativamente constante en 1-2 Hz. Por el contrario, la modulación de amplitud del habla suele ser de 4 a 5 Hz, lo que significa que su volumen cambia con frecuencia.

Aunque la música y el habla son omnipresentes, hasta ahora los estudiosos carecían de una comprensión clara de cómo reconocer automáticamente el sonido como música o habla.

Para comprender mejor este proceso en sus vidas. Biología PLoS En el estudio, Zhang y sus colegas llevaron a cabo una serie de cuatro experimentos en los que más de 300 participantes escucharon una serie de clips de audio de música sintetizada y ruido similar al habla con diferentes velocidades y regularidades de modulación de amplitud.

Los clips de ruido de audio sólo permiten la detección de volumen y velocidad. Se pidió a los participantes que juzgaran si estos clips de ruido ambiguos, que les habían dicho que eran música o palabras enmascaradas por ruido, sonaban como música o palabras.

La observación del patrón de los participantes clasificando cientos de clips de ruido en música o habla reveló hasta qué punto cada característica de velocidad y/o regularidad influyó en su juicio entre música y habla. Es la versión auditiva de «ver caras en la nube», concluyen los científicos: si una determinada característica de la onda sonora coincide con la idea de los oyentes de cómo debería sonar la música o el habla, entonces incluso un clip de ruido blanco puede sonar como música o discurso.

READ  Medias Rojas y Marlins cambian a Matt Barnes por Richard Bleier

Los resultados mostraron que nuestro sistema auditivo utiliza parámetros acústicos sorprendentemente simples y básicos para distinguir la música y el habla: para los participantes, sílabas a un ritmo más lento (

Los investigadores señalan que saber cómo el cerebro humano distingue entre música y habla podría beneficiar a las personas con trastornos de la audición o del lenguaje, como la afasia.

Por ejemplo, la terapia de entonación melódica es una forma prometedora de entrenar a las personas con afasia para que canten lo que quieren decir, utilizando su “mecánica musical” intacta para anular los mecanismos del habla dañados. Por lo tanto, saber qué hace que la música y el habla sean similares o diferentes en el cerebro puede ayudar a diseñar programas de rehabilitación más eficaces.

Otros autores de este artículo son Xiangbin Teng de la Universidad China de Hong Kong, M. Florencia Asaño, de la Universidad Nacional Autónoma de México (UNAM), y David Poppel, profesor del Departamento de Psicología de la Universidad de Nueva York y director gerente del Instituto Ernst Strungmann de Neurociencia en Frankfurt, Alemania.

Financiación: La investigación fue apoyada por una subvención del Instituto Nacional sobre Sordera y Otros Trastornos de la Comunicación, parte de los Institutos Nacionales de Salud (F32DC018205), y una Fundación Leon Levy en Neurociencia.

Acerca de las noticias de investigación en neurociencia auditiva

autor: James Devitt
fuente: Universidad de Nueva York
comunicación: James Devitt – Universidad de Nueva York
imagen: Imagen acreditada a Neuroscience News.

Búsqueda original: Acceso abierto.
«El sistema auditivo humano utiliza modulación de amplitud para distinguir la música del habla.“Por Andrew Chang et al. Biología PLoS


un resumen

El sistema auditivo humano utiliza modulación de amplitud para distinguir la música del habla.

READ  Tabla de clasificación del US Open 2023: cobertura en vivo, puntajes de golf de hoy, actualizaciones de la primera ronda en The Country Club

La música y el habla son señales auditivas complejas y distintas que subyacen a la experiencia humana. Los mecanismos subyacentes a cada dominio se investigan exhaustivamente.

Sin embargo, ¿cuál es el mecanismo cognitivo que convierte el sonido en música o habla y cómo? Básico La información acústica necesaria para distinguirlos sigue siendo una cuestión abierta.

Aquí, planteamos la hipótesis de que la modulación de amplitud (AM), una característica acústica temporal básica que impulsa el sistema auditivo a través de los niveles de procesamiento, es fundamental para la distinción entre música y habla.

Específicamente, a diferencia de los modelos que utilizan señales acústicas naturales (que pueden ser difíciles de interpretar), utilizamos un enfoque de detección de ruido para desentrañar el mecanismo auditivo: si la frecuencia y regularidad de la AM son esenciales para distinguir perceptivamente la música del habla, entonces juzgar el ruido artificialmente Las señales de audio ambiguas sintetizadas deben estar alineadas con sus parámetros AM.

en 4 experimentos (norte = 335), las señales con una frecuencia AM máxima más alta tendían a ser juzgadas como habla, menos como música. Curiosamente, este principio es utilizado sistemáticamente por todos los oyentes para juzgar el habla, pero sólo por los oyentes de música musicalmente sofisticados.

Además, las señales con AM más regular se consideran música por encima del habla, y esta característica es más importante para juzgar la música, independientemente de su sofisticación.

Los datos sugieren que el sistema auditivo puede depender de una propiedad acústica de bajo nivel tan básica como la AM para distinguir la música del habla, un principio simple que genera especulaciones y experimentos neurofisiológicos y evolutivos.

Estaremos encantados de escuchar lo que piensas

Deje una respuesta

ELCORREODEBEJAR.COM ES PARTICIPANTE EN EL PROGRAMA DE ASOCIADOS DE AMAZON SERVICES LLC, UN PROGRAMA DE PUBLICIDAD DE AFILIADOS DISEÑADO PARA PROPORCIONAR UN MEDIO PARA QUE LOS SITIOS GANAN TARIFAS DE PUBLICIDAD POR PUBLICIDAD Y ENLACE A AMAZON.COM. AMAZON, EL LOGOTIPO DE AMAZON, AMAZONSUPPLY Y EL LOGOTIPO DE AMAZONSUPPLY SON MARCAS COMERCIALES DE AMAZON.COM, INC. O SUS AFILIADAS. COMO ASOCIADO DE AMAZON, GANAMOS COMISIONES DE AFILIADOS DE COMPRAS QUE CALIFICAN. ¡GRACIAS, AMAZON POR AYUDARNOS A PAGAR LOS GASTOS DE NUESTRO SITIO WEB! TODAS LAS IMÁGENES DE LOS PRODUCTOS PERTENECEN A AMAZON.COM Y SUS VENDEDORES.
El Correo de Béjar