O cérebro ajusta-se à fala consoante a nossa atenção?
Estudo revela que cérebro ajusta atividade elétrica ao ouvir fala e que esse sincronismo depende mais da atenção do que do volume. Sistemas baseados em EEG podem adaptar o som ao estado do ouvinte e abrir caminho para tecnologias auditivas mais eficientes.
Publicado a Feb 9, 2026
Quando ouvimos alguém falar, o cérebro não se limita a “receber” o som. Ele ajusta a sua atividade elétrica para acompanhar o ritmo e as variações da fala, quase como se estivesse a dançar ao mesmo compasso. Este fenómeno, conhecido como speech tracking (ou sincronização cérebro–fala), está fortemente ligado à compreensão da fala e tem despertado grande interesse científico, porque revela como o cérebro se adapta para processar informação auditiva de forma eficiente.
Num estudo recente, uma equipa de investigadores, liderada por Alejandro Pérez, analisou se este acompanhamento cerebral pode ser influenciado pelo volume da fala, ajustado em tempo real de acordo com o nível de atenção do ouvinte. Para isso, os investigadores usaram EEG para medir a atividade cerebral ligada à atenção (ondas alfa) e criaram um sistema que aumentava ou diminuía o volume automaticamente. Os participantes ouviam sequências de dígitos e tinham de os repetir na mesma ordem, permitindo avaliar memória imediata e atividade cerebral.
Os resultados mostraram que o desempenho de memória imediata se manteve estável, independentemente do volume. No entanto, o modo como o cérebro seguia a fala mudou de forma sistemática. Sons mais altos, apresentados quando a atenção era baixa (indicada por alfa elevado), originaram um speech tracking menos intenso, mas com picos de resposta mais rápidas, contrariando a hipótese inicial dos autores. Em contraste, sons mais baixos, ouvidos em estados de maior atenção (alfa mais baixo), produziram um acompanhamento cerebral mais forte e prolongado.
Análises adicionais sugerem ainda que o cérebro pode ativar mecanismos compensatórios para manter o desempenho de memória - por exemplo, maior sincronização na banda theta durante a codificação - mesmo quando o som muda.
Em conjunto, os resultados sugerem que a atenção interna tem um papel mais determinante do que o volume no processamento da fala. Além disso, o estudo mostra que sistemas baseados em EEG podem ajustar o som ao estado do ouvinte, abrindo caminho para tecnologias auditivas mais inteligentes e adaptativas. Este estudo, foi publicado na revista científica Journal of Neural Engineering, no artigo Modulating speech tracking through brain state-dependent changes in audio loudness, no âmbito do projeto de investigação 267/22 - System for measuring and manipulating language-based social interactions using EEG hyperscanning, neurofeedback and closed-loop brain stimulation, apoiado pela Fundação Bial.
ABSTRACT
Objective. To determine whether the perceptual intensity of speech signals-manipulated via loudness and dynamically adjusted through a brain state-dependent stimulation (BSDS) paradigm-modulates neural speech tracking and short-term memory.
Approach. We implemented an EEG brain state-dependent design in which real-time variations in alpha power were used to modulate the loudness of pre-recorded digits during a task modelled on the digit span test. Speech tracking was quantified using lagged Gaussian copula mutual information (2–10 Hz), and behavioural performance was assessed through recall accuracy.
Main results. Contrary to our initial hypothesis that higher loudness would enhance speech tracking and memory via bottom–up attention, digit recall accuracy was stable across loudness conditions. Speech tracking revealed an unexpected pattern: louder stimuli presented during high alpha power (low attention) elicited reduced tracking magnitudes and shorter peak latencies, whereas quieter stimuli delivered during low alpha power (high attention) produced stronger and more temporally extended tracking responses.
Significance. These findings may suggest that internal attentional state, rather than external stimulus salience, plays a dominant role in shaping speech encoding. The study provides proof-of-concept evidence for BSDS in auditory paradigms, showing the importance of attentional fluctuations and stimulus loudness in determining the strength and timing of neural speech tracking, with implications for the design of adaptive speech-enhancement strategies.