resumo: Um novo estudo revela como o nosso cérebro distingue entre música e fala usando parâmetros acústicos simples. Os pesquisadores descobriram que sons mais lentos e constantes eram percebidos como música, enquanto sons mais rápidos e irregulares eram percebidos como fala.
Estas ideias poderiam melhorar os programas de tratamento para distúrbios de linguagem, como a afasia. A pesquisa fornece uma compreensão mais profunda do processamento auditivo.
Principais fatos:
- Parâmetros simples: O cérebro usa parâmetros acústicos básicos para distinguir entre música e fala.
- Potencial terapêutico:As descobertas podem melhorar os tratamentos para distúrbios de linguagem, como a afasia.
- Detalhes da pesquisa: O estudo incluiu mais de 300 participantes ouvindo clipes de áudio sintetizados.
fonte: Universidade de Nova York
Música e fala são os tipos de sons mais comuns que ouvimos. Mas como identificamos o que consideramos diferenças entre os dois?
Uma equipa internacional de investigadores mapeou este processo através de uma série de experiências, levando a insights que oferecem uma forma potencial de melhorar os programas terapêuticos que utilizam a música para restaurar a fala no tratamento da afasia.
Este distúrbio de linguagem afeta mais de um em cada 300 americanos a cada ano, incluindo Wendy Williams e Bruce Willis.
“Embora a música e a fala sejam diferentes em muitos aspectos, desde o tom ao timbre e à estrutura sonora, os nossos resultados mostram que o sistema auditivo utiliza parâmetros acústicos surpreendentemente simples para distinguir entre música e fala.” Departamento de Psicologia e autor principal do artigo que aparece na revista Biologia PLoS.
“Em geral, sílabas mais lentas e constantes que contêm apenas ruído soam mais como música, enquanto sílabas mais rápidas e irregulares soam mais como fala.”
Os cientistas medem a taxa de sinais em unidades de medida precisas: Hertz (Hz). Um número maior de Hz significa um número maior de repetições (ou ciclos) por segundo do que um número menor. Por exemplo, as pessoas normalmente andam a uma velocidade de 1,5 a 2 passos por segundo, ou seja, 1,5 a 2 Hz.
A canção “Superstition” de Stevie Wonder de 1972 tem um andamento de cerca de 1,6 Hz, enquanto a canção “Roller Girl” de Anna Karina de 1967 tem um andamento de 2 Hz. Em contraste, a fala é normalmente duas a três vezes mais rápida do que a fala em 4-5 Hz.
Está bem documentado que o volume, ou intensidade, de uma música ao longo do tempo – conhecido como “modulação de amplitude” – é relativamente constante em 1-2 Hz. Em contraste, a modulação de amplitude da fala é normalmente de 4–5 Hz, o que significa que o seu volume muda frequentemente.
Embora a música e a fala sejam onipresentes, os estudiosos anteriormente não tinham uma compreensão clara de como reconhecer automaticamente o som como música ou fala.
Para entender melhor esse processo em suas vidas Biologia PLoS No estudo, Zhang e seus colegas conduziram uma série de quatro experimentos nos quais mais de 300 participantes ouviram uma série de clipes de áudio de música sintetizada e ruído semelhante a fala com diferentes velocidades e regularidades de modulação de amplitude.
Os clipes de ruído de áudio permitem apenas a detecção de volume e velocidade. Os participantes foram convidados a julgar se esses clipes de ruído ambíguos, que lhes disseram ser música ou fala mascarada por ruído, soavam como música ou fala.
A observação do padrão dos participantes classificando centenas de clipes de ruído em música ou fala revelou até que ponto cada característica de velocidade e/ou regularidade influenciou seu julgamento entre música e fala. É a versão auditiva de “ver rostos na nuvem”, concluem os cientistas: se um determinado recurso na onda sonora corresponder à ideia dos ouvintes de como a música ou a fala deveriam soar, então até mesmo um clipe de ruído branco pode soar como música ou discurso.
Os resultados mostraram que nosso sistema auditivo utiliza parâmetros acústicos surpreendentemente simples e básicos para distinguir música e fala: para os participantes, sílabas em ritmos mais lentos (
Os pesquisadores observam que saber como o cérebro humano distingue entre música e fala pode beneficiar pessoas com distúrbios auditivos ou de linguagem, como a afasia.
Por exemplo, a terapia de entonação melódica é uma forma promissora de treinar pessoas com afasia para cantar o que querem dizer, usando a sua “mecânica musical” intacta para substituir mecanismos de fala danificados. Portanto, saber o que torna a música e a fala semelhantes ou diferentes no cérebro pode ajudar a projetar programas de reabilitação mais eficazes.
Outros autores deste artigo são Xiangbin Teng, da Universidade Chinesa de Hong Kong, M. Florencia Asaño, da Universidade Nacional Autônoma do México (UNAM), e David Poppel, professor do Departamento de Psicologia da Universidade de Nova York e diretor administrativo do Instituto Ernst Strungmann de Neurociências em Frankfurt, Alemanha.
Financiamento: A pesquisa foi apoiada por uma bolsa do Instituto Nacional de Surdez e Outros Distúrbios da Comunicação, parte dos Institutos Nacionais de Saúde (F32DC018205), e uma doação Leon Levy em Neurociências.
Sobre notícias de pesquisa em neurociência auditiva
autor: James Devitt
fonte: Universidade de Nova York
comunicação: James Devitt – Universidade de Nova York
foto: Imagem creditada ao Neuroscience News
Pesquisa original: Acesso livre.
“O sistema auditivo humano usa modulação de amplitude para distinguir música da fala“Por Andrew Chang et al. Biologia PLoS
um resumo
O sistema auditivo humano usa modulação de amplitude para distinguir música da fala
A música e a fala são sinais auditivos complexos e distintos que fundamentam a experiência humana. Os mecanismos subjacentes a cada domínio são extensivamente investigados.
Porém, qual é o mecanismo cognitivo que converte o som em música ou fala e como? Básico A informação acústica necessária para distinguir entre eles permanece uma questão em aberto.
Aqui, levantamos a hipótese de que a modulação de amplitude (AM), uma característica acústica temporal básica que impulsiona o sistema auditivo através dos níveis de processamento, é crítica para a distinção entre música e fala.
Especificamente, em contraste com modelos que utilizam sinais acústicos naturais (que podem ser difíceis de interpretar), utilizamos uma abordagem de triagem de ruído para desembaraçar o mecanismo auditivo: se a frequência e a regularidade AM são essenciais para distinguir perceptivamente a música da fala, então julgar o ruído artificialmente Os sinais de áudio ambíguos sintetizados devem estar alinhados com seus parâmetros AM.
em 4 experimentos (n = 335), sinais com maior frequência AM de pico tendem a ser julgados como fala e menos como música. Curiosamente, este princípio é consistentemente usado por todos os ouvintes para julgar a fala, mas apenas por ouvintes de música musicalmente sofisticados.
Além disso, sinais com AM mais regular são julgados como música acima da fala, e esta característica é mais importante para julgar música, independentemente da sofisticação musical.
Os dados sugerem que o sistema auditivo pode confiar numa propriedade acústica de baixo nível tão básica como a AM para distinguir a música da fala, um princípio simples que desencadeia experiências e especulações neurofisiológicas e evolutivas.
More Stories
Inspetor Geral da NASA emite relatório contundente sobre atrasos no projeto de lançamento da espaçonave SLS
Como os buracos negros ficaram tão grandes e rápidos? A resposta está no escuro
Uma estudante da Universidade da Carolina do Norte se tornará a mulher mais jovem a cruzar as fronteiras do espaço a bordo da Blue Origin