resumo: Um novo estudo revela como o nosso cérebro distingue entre música e fala usando parâmetros acústicos simples. Os pesquisadores descobriram que sons mais lentos e constantes eram percebidos como música, enquanto sons mais rápidos e irregulares eram percebidos como fala.
Estas ideias poderiam melhorar os programas de tratamento para distúrbios de linguagem, como a afasia. A pesquisa fornece uma compreensão mais profunda do processamento auditivo.
Principais fatos:
- Parâmetros simples: O cérebro usa parâmetros acústicos básicos para distinguir entre música e fala.
- Potencial terapêutico:As descobertas podem melhorar os tratamentos para distúrbios de linguagem, como a afasia.
- Detalhes da pesquisa: O estudo incluiu mais de 300 participantes ouvindo clipes de áudio sintetizados.
fonte: Universidade de Nova York
Música e fala são os tipos de sons mais comuns que ouvimos. Mas como identificamos o que consideramos diferenças entre os dois?
Uma equipa internacional de investigadores mapeou este processo através de uma série de experiências, levando a insights que oferecem uma forma potencial de melhorar os programas terapêuticos que utilizam a música para restaurar a fala no tratamento da afasia.
Este distúrbio de linguagem afeta mais de um em cada 300 americanos a cada ano, incluindo Wendy Williams e Bruce Willis.
“Embora a música e a fala sejam diferentes em muitos aspectos, desde o tom ao timbre e à estrutura sonora, os nossos resultados mostram que o sistema auditivo utiliza parâmetros acústicos surpreendentemente simples para distinguir entre música e fala.” Departamento de Psicologia e autor principal do artigo que aparece na revista Biologia PLoS.
“Em geral, sílabas mais lentas e constantes que contêm apenas ruído soam mais como música, enquanto sílabas mais rápidas e irregulares soam mais como fala.”
Os cientistas medem a taxa de sinais em unidades de medida precisas: Hertz (Hz). Um número maior de Hz significa um número maior de repetições (ou ciclos) por segundo do que um número menor. Por exemplo, as pessoas normalmente andam a uma velocidade de 1,5 a 2 passos por segundo, ou seja, 1,5 a 2 Hz.
A canção “Superstition” de Stevie Wonder de 1972 tem um andamento de cerca de 1,6 Hz, enquanto a canção “Roller Girl” de Anna Karina de 1967 tem um andamento de 2 Hz. Em contraste, a fala é normalmente duas a três vezes mais rápida do que a fala em 4-5 Hz.
Está bem documentado que o volume, ou intensidade, de uma música ao longo do tempo – conhecido como “modulação de amplitude” – é relativamente constante em 1-2 Hz. Em contraste, a modulação de amplitude da fala é normalmente de 4–5 Hz, o que significa que o seu volume muda frequentemente.
Embora a música e a fala sejam onipresentes, os estudiosos anteriormente não tinham uma compreensão clara de como reconhecer automaticamente o som como música ou fala.
Para entender melhor esse processo em suas vidas Biologia PLoS No estudo, Zhang e seus colegas conduziram uma série de quatro experimentos nos quais mais de 300 participantes ouviram uma série de clipes de áudio de música sintetizada e ruído semelhante a fala com diferentes velocidades e regularidades de modulação de amplitude.
Os clipes de ruído de áudio permitem apenas a detecção de volume e velocidade. Os participantes foram convidados a julgar se esses clipes de ruído ambíguos, que lhes disseram ser música ou fala mascarada por ruído, soavam como música ou fala.
A observação do padrão dos participantes classificando centenas de clipes de ruído em música ou fala revelou até que ponto cada característica de velocidade e/ou regularidade influenciou seu julgamento entre música e fala. É a versão auditiva de “ver rostos na nuvem”, concluem os cientistas: se um determinado recurso na onda sonora corresponder à ideia dos ouvintes de como a música ou a fala deveriam soar, então até mesmo um clipe de ruído branco pode soar como música ou discurso.
Os resultados mostraram que nosso sistema auditivo utiliza parâmetros acústicos surpreendentemente simples e básicos para distinguir música e fala: para os participantes, sílabas em ritmos mais lentos (
Os pesquisadores observam que saber como o cérebro humano distingue entre música e fala pode beneficiar pessoas com distúrbios auditivos ou de linguagem, como a afasia.
Por exemplo, a terapia de entonação melódica é uma forma promissora de treinar pessoas com afasia para cantar o que querem dizer, usando a sua “mecânica musical” intacta para substituir mecanismos de fala danificados. Portanto, saber o que torna a música e a fala semelhantes ou diferentes no cérebro pode ajudar a projetar programas de reabilitação mais eficazes.
Outros autores deste artigo são Xiangbin Teng, da Universidade Chinesa de Hong Kong, M. Florencia Asaño, da Universidade Nacional Autônoma do México (UNAM), e David Poppel, professor do Departamento de Psicologia da Universidade de Nova York e diretor administrativo do Instituto Ernst Strungmann de Neurociências em Frankfurt, Alemanha.
Financiamento: A pesquisa foi apoiada por uma bolsa do Instituto Nacional de Surdez e Outros Distúrbios da Comunicação, parte dos Institutos Nacionais de Saúde (F32DC018205), e uma doação Leon Levy em Neurociências.
Sobre notícias de pesquisa em neurociência auditiva
autor: James Devitt
fonte: Universidade de Nova York
comunicação: James Devitt – Universidade de Nova York
foto: Imagem creditada ao Neuroscience News
Pesquisa original: Acesso livre.
“O sistema auditivo humano usa modulação de amplitude para distinguir música da fala“Por Andrew Chang et al. Biologia PLoS
um resumo
O sistema auditivo humano usa modulação de amplitude para distinguir música da fala
A música e a fala são sinais auditivos complexos e distintos que fundamentam a experiência humana. Os mecanismos subjacentes a cada domínio são extensivamente investigados.
Porém, qual é o mecanismo cognitivo que converte o som em música ou fala e como? Básico A informação acústica necessária para distinguir entre eles permanece uma questão em aberto.
Aqui, levantamos a hipótese de que a modulação de amplitude (AM), uma característica acústica temporal básica que impulsiona o sistema auditivo através dos níveis de processamento, é crítica para a distinção entre música e fala.
Especificamente, em contraste com modelos que utilizam sinais acústicos naturais (que podem ser difíceis de interpretar), utilizamos uma abordagem de triagem de ruído para desembaraçar o mecanismo auditivo: se a frequência e a regularidade AM são essenciais para distinguir perceptivamente a música da fala, então julgar o ruído artificialmente Os sinais de áudio ambíguos sintetizados devem estar alinhados com seus parâmetros AM.
em 4 experimentos (n = 335), sinais com maior frequência AM de pico tendem a ser julgados como fala e menos como música. Curiosamente, este princípio é consistentemente usado por todos os ouvintes para julgar a fala, mas apenas por ouvintes de música musicalmente sofisticados.
Além disso, sinais com AM mais regular são julgados como música acima da fala, e esta característica é mais importante para julgar música, independentemente da sofisticação musical.
Os dados sugerem que o sistema auditivo pode confiar numa propriedade acústica de baixo nível tão básica como a AM para distinguir a música da fala, um princípio simples que desencadeia experiências e especulações neurofisiológicas e evolutivas.
“Maven da Web. Geek de cerveja irritantemente humilde. Fanático por bacon. Criador típico. Especialista em música.”
More Stories
Inspetor Geral da NASA emite relatório contundente sobre atrasos no projeto de lançamento da espaçonave SLS
Como os buracos negros ficaram tão grandes e rápidos? A resposta está no escuro
Uma estudante da Universidade da Carolina do Norte se tornará a mulher mais jovem a cruzar as fronteiras do espaço a bordo da Blue Origin